nowmag.gr

Ένα βήμα πιο κοντά στη θεσμοθέτηση των πρώτων κανόνων για την Τεχνητή Νοημοσύνη, σε παγκόσμιο επίπεδο, έρχεται η Ευρωπαϊκή Ένωση. Για να διασφαλιστεί μια ανθρωποκεντρική και ηθική ανάπτυξη της Τεχνητής Νοημοσύνης στην Ευρώπη, οι ευρωβουλευτές ενέκριναν χθες νέους κανόνες διαφάνειας και διαχείρισης κινδύνου για τα συστήματα Artificial Intelligence (AI).

Η Επιτροπή Εσωτερικής Αγοράς και Προστασίας των Καταναλωτών (IMCO) και η Επιτροπή Πολιτικών Ελευθεριών Δικαιοσύνης και Εσωτερικών Υποθέσεων (LIBE) ενέκριναν σχέδιο διαπραγματευτικής εντολής για τους πρώτους κανόνες για την Τεχνητή Νοημοσύνη με 84 ψήφους υπέρ, 7 κατά και 12 αποχές.

Με τις τροπολογίες τους επί της πρότασης της Ευρωπαϊκής Επιτροπής (Πράξη για την Τεχνητή Νοημοσύνη -ΑΙ Act), οι ευρωβουλευτές θέλουν να διασφαλίσουν ότι τα συστήματα ΑΙ επιβλέπονται από ανθρώπους, είναι ασφαλή, διαφανή, ανιχνεύσιμα, χωρίς διακρίσεις και φιλικά προς το περιβάλλον.

Θέλουν, επίσης, έναν ενιαίο ορισμό για την τεχνητή νοημοσύνη, σχεδιασμένο να είναι τεχνολογικά ουδέτερος, ώστε να μπορεί να ισχύει για τα σημερινά και τα αυριανά συστήματα τεχνητής νοημοσύνης.

Επί της διαδικασίας, πριν ξεκινήσουν οι διαπραγματεύσεις με το Συμβούλιο για την τελική μορφή του νόμου, η διαπραγματευτική εντολή πρέπει να εγκριθεί από την Ολομέλεια του Ευρωπαϊκού Κοινοβουλίου, με την ψηφοφορία να αναμένεται κατά τη σύνοδο της 12ης-15ης Ιουνίου. Μόλις εγκριθούν, θα είναι οι πρώτοι κανόνες στον κόσμο για το ΑΙ.

Απαγορεύσεις και δικλείδες ασφαλείας

Το Ευρωπαϊκό Κοινοβούλιο επιχειρεί να δημιουργήσει δικλείδες ασφαλείας για τη χρήση των συστημάτων ΑΙ. Έτσι, οι κανόνες, που ενέκρινε χθες, ακολουθούν μια προσέγγιση “βασισμένη στον κίνδυνο” και θεσπίζουν υποχρεώσεις για τους παρόχους και τους χρήστες, ανάλογα με το επίπεδο κινδύνου, που μπορεί να δημιουργήσει η τεχνητή νοημοσύνη.

Συστήματα τεχνητής νοημοσύνης με απαράδεκτο επίπεδο κινδύνου για την ασφάλεια των ανθρώπων θα απαγορεύονται αυστηρά, συμπεριλαμβανομένων συστημάτων που αναπτύσσουν υποσυνείδητες ή σκόπιμες τεχνικές χειραγώγησης, εκμεταλλεύονται τα τρωτά σημεία των ανθρώπων ή χρησιμοποιούνται για “κοινωνική αξιολόγηση” (ταξινόμηση ατόμων με βάση την κοινωνική τους συμπεριφορά, την κοινωνικοοικονομική κατάσταση, την προσωπική τους κατάσταση, τα χαρακτηριστικά τους).

Οι ευρωβουλευτές συμπεριέλαβαν στην πρότασή τους απαγορεύσεις για παρεμβατικές και μεροληπτικές χρήσεις συστημάτων ΑΙ, όπως:

  • Απομακρυσμένα βιομετρικά συστήματα αναγνώρισης «σε πραγματικό χρόνο» σε χώρους προσβάσιμους από το κοινό.
  • “Αποστολή” απομακρυσμένων βιομετρικών συστημάτων ταυτοποίησης, με μόνη εξαίρεση τις αρχές επιβολής του νόμου για τη δίωξη σοβαρών εγκλημάτων και μόνο μετά από δικαστική εξουσιοδότηση.
  • Συστήματα βιομετρικής κατηγοριοποίησης, που χρησιμοποιούν ευαίσθητα χαρακτηριστικά (π.χ. φύλο, φυλή, εθνικότητα, ιθαγένεια, θρησκεία, πολιτικός προσανατολισμός)·
  • Συστήματα πρόβλεψης αστυνόμευσης (με βάση το προφίλ, την τοποθεσία ή την προηγούμενη εγκληματική συμπεριφορά).
  • Συστήματα αναγνώρισης συναισθημάτων στην επιβολή του νόμου, τη διαχείριση των συνόρων, τους χώρους εργασίας και τα εκπαιδευτικά ιδρύματα.
  • Αδιάκριτη απόσπαση βιομετρικών δεδομένων από μέσα κοινωνικής δικτύωσης για τη δημιουργία βάσεων δεδομένων αναγνώρισης προσώπου (παραβίαση των ανθρωπίνων δικαιωμάτων και του δικαιώματος στην ιδιωτική ζωή).

Εξαιρέσεις

Προκειμένου να ενισχύσουν την καινοτομία της τεχνητής νοημοσύνης, οι ευρωβουλευτές πρόσθεσαν εξαιρέσεις σε αυτούς τους κανόνες για ερευνητικές δραστηριότητες και στοιχεία τεχνητής νοημοσύνης, που παρέχονται με άδειες ανοιχτού κώδικα.

Στο μεταξύ, ο νέος νόμος προωθεί ρυθμιστικά sandboxes ή ελεγχόμενα περιβάλλοντα, που έχουν δημιουργηθεί από τις δημόσιες αρχές για τη δοκιμή της τεχνητής νοημοσύνης πριν από την ανάπτυξή της.

Επίσης, οι ευρωβουλευτές θέλουν να ενισχύσουν το δικαίωμα των πολιτών να υποβάλλουν καταγγελίες για συστήματα τεχνητής νοημοσύνης και να λαμβάνουν εξηγήσεις για αποφάσεις, που βασίζονται σε συστήματα ΑΙ υψηλού κινδύνου, που επηρεάζουν σημαντικά τα δικαιώματά τους.

Πηγή: http://www.sepe.gr/

You May Like This