Τη φιλόδοξη στρατηγική της για τη δημιουργία του πρώτου, παγκοσμίως, ασφαλούς οικοσυστήματος για την τεχνητή νοημοσύνη, αρχίζει να υλοποιεί η Ευρωπαϊκή Ένωση. Κομβικό τμήμα αυτής της στρατηγικής αποτελεί το Ευρωπαϊκό Γραφείο για τη Τεχνητή Νοημοσύνη, το οποίο θα λειτουργήσει ως βάση για ένα ενιαίο ευρωπαϊκό σύστημα διακυβέρνησης AI.
Το Ευρωπαϊκό Γραφείο ΑΙ θα διαδραματίσει βασικό ρόλο στην εφαρμογή του νόμου για την τεχνητή νοημοσύνη (AI Act), του πρώτου ολοκληρωμένου νόμου στον κόσμο για το ΑΙ. Μέσω του Γραφείου, η Ε.Ε. θέλει να υποστηρίξει την ανάπτυξη και χρήση αξιόπιστης τεχνητής νοημοσύνης, προστατεύοντας παράλληλα από κινδύνους της.
Το Ευρωπαϊκό Γραφείο ΑΙ θα διαδραματίσει βασικό ρόλο στην εφαρμογή του νόμου για την τεχνητή νοημοσύνη
“Η Ε.Ε. στοχεύει να διασφαλίσει ότι η τεχνητή νοημοσύνη είναι ασφαλής και αξιόπιστη. Για τον σκοπό αυτό, ο νόμος AI είναι το πρώτο ολοκληρωμένο νομικό πλαίσιο για την τεχνητή νοημοσύνη παγκοσμίως, που εγγυάται την υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα των ανθρώπων και παρέχει ασφάλεια δικαίου σε επιχειρήσεις στα 27 κράτη-μέλη”, αναφέρει σχετικά η Ευρωπαϊκή Επιτροπή.
Σύμφωνα με όσα προβλέπονται στον νέο ευρωπαϊκό νόμο για την Τεχνητή Νοημοσύνη, το Γραφείο θα συμβάλει στη συνεκτική εφαρμογή του νόμου AI σε όλα τα κράτη-μέλη, συμπεριλαμβανομένης της σύστασης συμβουλευτικών οργάνων σε επίπεδο Ε.Ε., διευκολύνοντας την υποστήριξη και την ανταλλαγή πληροφοριών. Επίσης, θα διερευνά πιθανές παραβιάσεις των σχετικών κανόνων, ενώ θα μπορεί να επιβάλει και πρόστιμα.
Θυμίζουμε ότι το ΑΙ Act, η πρώτη, παγκοσμίως, νομοθετική εργαλειοθήκη για την τεχνητή νοημοσύνη χωρίζει τα συστήματα τεχνητής νοημοσύνης σε κατηγορίες, ανάλογα με το επίπεδο κινδύνου που αντιπροσωπεύουν και θα θεσπίζει υποχρεώσει, για τους παρόχους, αλλά και για όσους τα διαθέτουν, για καθεμία από αυτές τις κατηγορίες.
Ο νόμος για το ΑΙ
Ειδικά για τα συστήματα τεχνητής νοημοσύνης, που κατατάσσονται στο επίπεδο υπερβολικά υψηλού κινδύνου για την ανθρώπινη ασφάλεια, θα απαγορεύονται πλήρως, όπως σε περιπτώσεις “κοινωνικής βαθμολόγησης”.
Οι ευρωβουλευτές εξασφάλισαν, επίσης, ότι ο κατάλογος με τις χρήσεις υψηλού κινδύνου θα περιλαμβάνει τα συστήματα τεχνητής νοημοσύνης που προκαλούν σημαντική βλάβη στην υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα των ανθρώπων ή στο περιβάλλον.
Στον ίδιο κατάλογο συμπεριλήφθηκαν ακόμα τα συστήματα, που χρησιμοποιούνται για να επηρεάσουν τους ψηφοφόρους και συνεπώς τα αποτελέσματα των εκλογών, καθώς και οι συστάσεις περιεχομένου, που κάνουν οι πλατφόρμες κοινωνικής δικτύωσης στους πάνω από 45 εκατ. χρήστες τους, με βάση αλγόριθμους.
Για το ChatGPT
Σύμφωνα με το νέο θεσμικό πλαίσιο, εφαρμογές “παραγωγικής τεχνητής νοημοσύνης”, όπως το ChatGPT, θα πρέπει να επισημαίνουν τα προϊόντα τους. Οι εταιρείες προγραμματισμού, που δημιουργούν νέου τύπου εφαρμογές τεχνητής νοημοσύνης, θα πρέπει να μεριμνούν, ώστε όλες οι εφαρμογές τύπου ChatGPT να συμμορφώνονται με τις απαιτήσεις διαφάνειας της Ε.Ε. (γνωστοποιώντας στο κοινό ότι έχουν χρησιμοποιηθεί για τη δημιουργία ενός προϊόντος ΑΙ, βοηθώντας επίσης στον διαχωρισμό των παραποιημένων εικόνων.
Θα πρέπει, επίσης, να λαμβάνουν κατάλληλα μέτρα, ώστε να διασφαλίζεται ότι δεν παράγουν παράνομο περιεχόμενο. Θα έχουν, τέλος, την υποχρέωση να διαθέτουν στο κοινό λεπτομερή καταγραφή του υλικού που προστατεύεται από δικαιώματα πνευματικής ιδιοκτησίας και χρησιμοποιήθηκε για την “εκπαίδευση” των συστημάτων τους.
Γενικά, οι εταιρείες προγραμματισμού, που δημιουργούν νέου τύπου εφαρμογές τεχνητής νοημοσύνης (τα λεγόμενα “foundation models”), θα πρέπει να αξιολογούν και να μετριάζουν τους πιθανούς κινδύνους (για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, την δημοκρατία και το κράτος δικαίου) και να εγγράφουν τις εφαρμογές αυτές στη βάση δεδομένων της Ε.Ε., πριν τις διαθέσουν στην ευρωπαϊκή αγορά.
Πηγή: https://www.sepe.gr/
Join the Conversation →