nowmag.gr

Τη νομοθεσία-ορόσημο για την τεχνητή νοημοσύνη, το “Artificial Intelligence Act”, καλείται να εγκρίνει σήμερα το Ευρωπαϊκό Κοινοβούλιο. Η Πράξη για την Τεχνητή Νοημοσύνη, το πρώτο παγκοσμίως ρυθμιστικό πλαίσιο για το artificial intelligence, τίθεται προς έγκριση από το Κοινοβούλιο, με στόχο να διασφαλίσει ότι το ΑΙ είναι αξιόπιστο, ασφαλές, καινοτόμο και σέβεται τα θεμελιώδη δικαιώματα της Ε.Ε.

“Η Ε.Ε. στοχεύει να διασφαλίσει ότι η τεχνητή νοημοσύνη είναι ασφαλής και αξιόπιστη. Για τον σκοπό αυτό, ο νόμος AI είναι το πρώτο ολοκληρωμένο νομικό πλαίσιο για την τεχνητή νοημοσύνη παγκοσμίως, που εγγυάται την υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα των ανθρώπων και παρέχει ασφάλεια δικαίου σε επιχειρήσεις στα 27 κράτη-μέλη”, αναφέρει σχετικά η Ευρωπαϊκή Επιτροπή.

Προς πλήρη απαγόρευση της χρήσης AI για βιομετρική ταυτοποίηση, αναγνώριση συναισθημάτων και προληπτική αστυνόμευση – Τι προβλέπεται το ChatGPT

Το ΑΙ Act, η πρώτη, παγκοσμίως, νομοθετική εργαλειοθήκη για την τεχνητή νοημοσύνη, χωρίζει τα συστήματα τεχνητής νοημοσύνης σε κατηγορίες, ανάλογα με το επίπεδο κινδύνου που αντιπροσωπεύουν και θα θεσπίζει υποχρεώσεις για τους παρόχους, αλλά και για όσους τα διαθέτουν, για καθεμία από αυτές τις κατηγορίες.

Η συμφωνία, που τίθεται σήμερα προς ψήφιση και επετεύχθη μεταξύ των χωρών-μελών της Ε.Ε. για τη θέσπιση υποχρεώσεων για την τεχνητή νοημοσύνη, μεταξύ άλλων, απαγορεύει πλήρως τη χρήση AI για βιομετρική ταυτοποίηση, αναγνώριση συναισθημάτων και προληπτική αστυνόμευση.

Βιομετρικά συστήματα

Ειδικά για τα συστήματα τεχνητής νοημοσύνης, που κατατάσσονται στο επίπεδο υπερβολικά υψηλού κινδύνου για την ανθρώπινη ασφάλεια, θα απαγορεύονται πλήρως, όπως σε περιπτώσεις “κοινωνικής βαθμολόγησης”.

“Για τις εφαρμογές, που ενδέχεται να αποτελέσουν απειλή για θεμελιώδη δικαιώματα (όπως τα συστήματα βιομετρικής κατηγοριοποίησης, που βασίζονται σε ευαίσθητα χαρακτηριστικά, η κοινωνική βαθμολόγηση ή η τεχνητή νοημοσύνη, που χρησιμοποιείται για τη χειραγώγηση της ανθρώπινης συμπεριφοράς), θα υπάρξει καθολική απαγόρευση στην Ε.Ε.”, αναφέρει το Κοινοβούλιο.

Οι ευρωβουλευτές εξασφάλισαν, επίσης, ότι ο κατάλογος με τις χρήσεις υψηλού κινδύνου θα περιλαμβάνει τα συστήματα τεχνητής νοημοσύνης, που προκαλούν σημαντική βλάβη στην υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα των ανθρώπων ή στο περιβάλλον.

Στον ίδιο κατάλογο συμπεριλήφθηκαν ακόμα τα συστήματα, που χρησιμοποιούνται για να επηρεάσουν τους ψηφοφόρους και συνεπώς τα αποτελέσματα των εκλογών, καθώς και οι συστάσεις περιεχομένου, που κάνουν οι πλατφόρμες κοινωνικής δικτύωσης στους πάνω από 45 εκατ. χρήστες τους, με βάση αλγόριθμους.

Ευρωπαϊκό Γραφείο ΑΙ

Κομβικό τμήμα του νέου θεσμικού πλαισίου αποτελεί το Ευρωπαϊκό Γραφείο για τη Τεχνητή Νοημοσύνη, το οποίο θα λειτουργήσει ως βάση για ένα ενιαίο ευρωπαϊκό σύστημα διακυβέρνησης AI.  Το Γραφείο ΑΙ θα διαδραματίσει βασικό ρόλο στην εφαρμογή του νόμου για την τεχνητή νοημοσύνη (AI Act), του πρώτου ολοκληρωμένου νόμου στον κόσμο για το ΑΙ.

Μέσω του Γραφείου, η Ε.Ε. θέλει να υποστηρίξει την ανάπτυξη και χρήση αξιόπιστης τεχνητής νοημοσύνης, προστατεύοντας παράλληλα από κινδύνους της. Σύμφωνα με όσα προβλέπονται στον νέο ευρωπαϊκό νόμο για την Τεχνητή Νοημοσύνη, το Γραφείο θα συμβάλει στη συνεκτική εφαρμογή του νόμου AI σε όλα τα κράτη-μέλη, συμπεριλαμβανομένης της σύστασης συμβουλευτικών οργάνων σε επίπεδο Ε.Ε., διευκολύνοντας την υποστήριξη και την ανταλλαγή πληροφοριών. Επίσης, θα διερευνά πιθανές παραβιάσεις των σχετικών κανόνων, ενώ θα μπορεί να επιβάλει και πρόστιμα.

Για το ChatGPT

Σύμφωνα με το νέο θεσμικό πλαίσιο, εφαρμογές “παραγωγικής τεχνητής νοημοσύνης”, όπως το ChatGPT, θα πρέπει να επισημαίνουν τα προϊόντα τους. Οι εταιρείες προγραμματισμού, που δημιουργούν νέου τύπου εφαρμογές τεχνητής νοημοσύνης, θα πρέπει να μεριμνούν, ώστε όλες οι εφαρμογές τύπου ChatGPT να συμμορφώνονται με τις απαιτήσεις διαφάνειας της Ε.Ε., γνωστοποιώντας στο κοινό ότι έχουν χρησιμοποιηθεί για τη δημιουργία ενός προϊόντος ΑΙ, βοηθώντας επίσης στον διαχωρισμό των παραποιημένων εικόνων.

Θα πρέπει, επίσης, να λαμβάνουν κατάλληλα μέτρα, ώστε να διασφαλίζεται ότι δεν παράγουν παράνομο περιεχόμενο. Θα έχουν, τέλος, την υποχρέωση να διαθέτουν στο κοινό λεπτομερή καταγραφή του υλικού, που προστατεύεται από δικαιώματα πνευματικής ιδιοκτησίας και χρησιμοποιήθηκε για την “εκπαίδευση” των συστημάτων τους.

Γενικά, οι εταιρείες προγραμματισμού, που δημιουργούν νέου τύπου εφαρμογές τεχνητής νοημοσύνης (τα λεγόμενα “foundation models”), θα πρέπει να αξιολογούν και να μετριάζουν τους πιθανούς κινδύνους (για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, την δημοκρατία και το κράτος δικαίου) και να εγγράφουν τις εφαρμογές αυτές στη βάση δεδομένων της Ε.Ε., πριν τις διαθέσουν στην ευρωπαϊκή αγορά.

Πηγή: https://www.sepe.gr/

You May Like This