Ένα ιστορικό ορόσημο διανύει η Ευρωπαϊκή Ένωση, η οποία εισάγει, πρώτη παγκοσμίως, κανόνες για τη ρύθμιση της τεχνητής νοημοσύνη. Τον δρόμο προς το νέο θεσμικό περιβάλλον άνοιξε η πολιτική συμφωνία, στην οποία κατέληξε το Ευρωπαϊκό Κοινοβούλιο με το Συμβούλιο.
Το νομοσχέδιο, που διασφαλίζει ότι η τεχνητή νοημοσύνη στην Ευρώπη είναι ασφαλής, σέβεται τα θεμελιώδη δικαιώματα και τη δημοκρατία, ενώ οι επιχειρήσεις μπορούν να ευδοκιμήσουν και να επεκταθούν, εγκρίθηκε την Παρασκευή, οπότε οι διαπραγματευτές Κοινοβουλίου και Συμβουλίου κατέληξαν σε προσωρινή συμφωνία για τον νόμο περί τεχνητής νοημοσύνης.
Ο κανονισμός στοχεύει να διασφαλίσει ότι τα θεμελιώδη δικαιώματα, η δημοκρατία, το κράτος δικαίου και η περιβαλλοντική βιωσιμότητα προστατεύονται από την τεχνητή νοημοσύνη υψηλού κινδύνου, ενισχύοντας παράλληλα την καινοτομία και καθιστώντας την Ευρώπη ηγέτη στον τομέα. Οι κανόνες θεσπίζουν υποχρεώσεις για την τεχνητή νοημοσύνη με βάση τους πιθανούς κινδύνους και το επίπεδο επιπτώσεων της.
Μεταξύ άλλων, το νέο νομοθετικό πλαίσιο προβλέπει περιορισμό της χρήσης βιομετρικών συστημάτων ταυτοποίησης από τις αρχές επιβολής του νόμου, καθώς και απαγορεύσεις για τη βαθμολογία κοινωνικής δικτύωσης και την τεχνητή νοημοσύνη, που χρησιμοποιούνται για τη χειραγώγηση ή την εκμετάλλευση τρωτών σημείων των χρηστών.
Επίσης, οι νέοι κανόνες εισάγουν το δικαίωμα των καταναλωτών να υποβάλλουν παράπονα και να λαμβάνουν ουσιαστικές εξηγήσεις, ενώ θεσπίζουν πρόστιμα που κυμαίνονται από €35 εκατ. ή 7% του παγκόσμιου τζίρου έως €7,5 εκατ. ή 1,5% του τζίρου.
Βιομετρικά συστήματα
Αναγνωρίζοντας την πιθανή απειλή για τα δικαιώματα των πολιτών και τη δημοκρατία που αποτελούν ορισμένες εφαρμογές της τεχνητής νοημοσύνης, οι συννομοθέτες συμφώνησαν να απαγορεύσουν τα βιομετρικά συστήματα κατηγοριοποίησης που χρησιμοποιούν ευαίσθητα χαρακτηριστικά (π.χ. πολιτικές, θρησκευτικές, φιλοσοφικές πεποιθήσεις, σεξουαλικός προσανατολισμός, φυλή). Επίσης, συμφώνησαν να απαγορεύσουν τη μη στοχευμένη απόξεση εικόνων προσώπων από το διαδίκτυο ή πλάνα CCTV για τη δημιουργία βάσεων δεδομένων αναγνώρισης προσώπου.
Επίσης, στις απαγορευμένες εφαρμογές περιλαμβάνεται η αναγνώριση συναισθημάτων στον χώρο εργασίας και στα εκπαιδευτικά ιδρύματα, όπως και η κοινωνική βαθμολογία με βάση την κοινωνική συμπεριφορά ή τα προσωπικά χαρακτηριστικά. Επίσης, συμφωνήθηκε η απαγόρευση συστημάτων τεχνητής νοημοσύνης, που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούλησή τους.
Συστήματα ταυτοποίησης
Οι διαπραγματευτές συμφώνησαν σε μια σειρά από διασφαλίσεις και στενές εξαιρέσεις για τη χρήση βιομετρικών συστημάτων ταυτοποίησης (RBI) σε χώρους προσβάσιμους στο κοινό για σκοπούς επιβολής του νόμου, υπό την προϋπόθεση προηγούμενης δικαστικής άδειας και για αυστηρά καθορισμένους καταλόγους εγκλημάτων. Το “μετα-απομακρυσμένο” RBI θα χρησιμοποιηθεί αυστηρά στη στοχευμένη έρευνα ατόμου που έχει καταδικαστεί ή είναι ύποπτο για διάπραξη σοβαρού εγκλήματος.
Η RBI “σε πραγματικό χρόνο” θα συμμορφώνεται με αυστηρούς όρους και η χρήση της θα είναι περιορισμένη σε χρόνο και τοποθεσία, για τους σκοπούς:
– Στοχευμένες έρευνες θυμάτων (απαγωγή, εμπορία ανθρώπων, σεξουαλική εκμετάλλευση),
– Πρόληψη συγκεκριμένης και παρούσας τρομοκρατικής απειλής ή τον εντοπισμό ή την ταυτοποίηση ατόμου που είναι ύποπτο ότι έχει διαπράξει ένα από τα συγκεκριμένα εγκλήματα που αναφέρονται στον κανονισμό.
Υποχρεώσεις
Για συστήματα τεχνητής νοημοσύνης, που ταξινομούνται ως υψηλού κινδύνου (λόγω της σημαντικής πιθανής βλάβης στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου), συμφωνήθηκαν σαφείς υποχρεώσεις.
Οι ευρωβουλευτές κατάφεραν με επιτυχία να συμπεριλάβουν μια υποχρεωτική εκτίμηση επιπτώσεων στα θεμελιώδη δικαιώματα, μεταξύ άλλων απαιτήσεων, που ισχύουν επίσης για τον ασφαλιστικό και τον τραπεζικό τομέα. Τα συστήματα τεχνητής νοημοσύνης, που χρησιμοποιούνται για να επηρεάσουν το αποτέλεσμα των εκλογών και την εκλογική συμπεριφορά, ταξινομούνται επίσης ως υψηλού κινδύνου.
Οι πολίτες θα έχουν το δικαίωμα να υποβάλλουν καταγγελίες για συστήματα τεχνητής νοημοσύνης και να λαμβάνουν εξηγήσεις σχετικά με αποφάσεις που βασίζονται σε συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, που επηρεάζουν τα δικαιώματά τους.
Προστατευτικά
Για να ληφθεί υπόψη το ευρύ φάσμα των εργασιών που μπορούν να επιτύχουν τα συστήματα τεχνητής νοημοσύνης και η ταχεία επέκταση των δυνατοτήτων τους, συμφωνήθηκε ότι τα συστήματα τεχνητής νοημοσύνης γενικής χρήσης (GPAI) και τα μοντέλα GPAI στα οποία βασίζονται, θα πρέπει να συμμορφώνονται με τις απαιτήσεις διαφάνειας, που προτάθηκαν αρχικά από το Κοινοβούλιο.
Αυτά περιλαμβάνουν τη σύνταξη τεχνικής τεκμηρίωσης, τη συμμόρφωση με τη νομοθεσία της Ε.Ε. για τα πνευματικά δικαιώματα και τη διάδοση λεπτομερών περιλήψεων σχετικά με το περιεχόμενο που χρησιμοποιείται για την εκπαίδευση.
Για τα μοντέλα GPAI υψηλού αντίκτυπου με συστημικό κίνδυνο, οι διαπραγματευτές του Κοινοβουλίου κατάφεραν να εξασφαλίσουν πιο αυστηρές υποχρεώσεις. Εάν αυτά τα μοντέλα πληρούν ορισμένα κριτήρια, θα πρέπει να πραγματοποιήσουν αξιολογήσεις μοντέλων, να αξιολογήσουν και να μετριάσουν τους συστημικούς κινδύνους, να πραγματοποιήσουν δοκιμές αντιπαράθεσης, να αναφέρουν στην Επιτροπή σοβαρά συμβάντα, να διασφαλίσουν την ασφάλεια στον κυβερνοχώρο και να αναφέρουν την ενεργειακή τους απόδοση.
Οι ευρωβουλευτές επέμειναν επίσης ότι, έως ότου δημοσιευθούν εναρμονισμένα πρότυπα της Ε.Ε., οι GPAI με συστημικό κίνδυνο μπορούν να βασίζονται σε κώδικες πρακτικής για να συμμορφωθούν με τον κανονισμό.
Μέτρα για στήριξη της καινοτομίας
Οι ευρωβουλευτές ήθελαν να διασφαλίσουν ότι οι επιχειρήσεις, ειδικά οι ΜμΕ, μπορούν να αναπτύξουν λύσεις τεχνητής νοημοσύνης χωρίς αδικαιολόγητη πίεση από τους γίγαντες του κλάδου, που ελέγχουν την αλυσίδα αξίας.
Για τον σκοπό αυτό, η συμφωνία προωθεί τα λεγόμενα ρυθμιστικά sandboxes και πραγματικές δοκιμές, που έχουν δημιουργηθεί από τις εθνικές αρχές για την ανάπτυξη και την εκπαίδευση καινοτόμου τεχνητής νοημοσύνης πριν από τη διάθεση στην αγορά.
Πηγή: https://www.sepe.gr/
Join the Conversation →