Skip to content

Αρθρογραφία

O Κανονισμός Της ΕΕ Για Την Τεχνητή Νοημοσύνη (AI Act)

Στις 8 Δεκεμβρίου 2023 οι ευρωβουλευτές κατέληξαν σε πολιτική συμφωνία με το Συμβούλιο για την ψήφιση Κανονισμού που θα διασφαλίζει ότι η τεχνητή νοημοσύνη στην Ευρώπη είναι ασφαλής, σέβεται τα θεμελιώδη δικαιώματα και τη δημοκρατία, ενώ οι επιχειρήσεις μπορούν να να την αξιοποιήσουν προκειμένου “να ευδοκιμήσουν και να επεκταθούν“.

Σύμφωνα με το Δελτίου Τύπου του Ευρωπαϊκού Κοινοβουλίου, ο Κανονισμός στοχεύει να διασφαλίσει ότι τα θεμελιώδη δικαιώματα, η δημοκρατία, το κράτος δικαίου και η περιβαλλοντική βιωσιμότητα θα προστατεύονται από την τεχνητή νοημοσύνη υψηλού κινδύνου, ενισχύοντας παράλληλα την καινοτομία και καθιστώντας την Ευρώπη ηγέτη στον τομέα. 

Οι κανόνες θεσπίζουν υποχρεώσεις για την τεχνητή νοημοσύνη με βάση τους πιθανούς κινδύνους και το επίπεδο επιπτώσεών της. Σημειώνεται ότι είχε προηγηθεί Πρόταση Κανονισμού του Ευρωπαϊκού Συμβουλίου και Κοινοβουλίου

Απαγορευμένες εφαρμογές 

Αναγνωρίζοντας την πιθανή απειλή για τα δικαιώματα των πολιτών και τη δημοκρατία, που αποτελούν ορισμένες εφαρμογές της τεχνητής νοημοσύνης, οι νομοθέτες συμφώνησαν να απαγορεύσουν: 

  • βιομετρικά συστήματα κατηγοριοποίησης που χρησιμοποιούν ευαίσθητα χαρακτηριστικά (π.χ. πολιτικές, θρησκευτικές, φιλοσοφικές πεποιθήσεις, σεξουαλικός προσανατολισμός, φυλή). 
  • μη στοχευμένη συλλογή εικόνων προσώπων από το διαδίκτυο ή πλάνα CCTV για τη δημιουργία βάσεων δεδομένων αναγνώρισης προσώπου. 
  • αναγνώριση συναισθημάτων («emotion recognition») στο χώρο εργασίας και στα εκπαιδευτικά ιδρύματα. 
  • κοινωνική βαθμολογία με βάση την κοινωνική συμπεριφορά ή τα προσωπικά χαρακτηριστικά. 
  • Συστήματα τεχνητής νοημοσύνης που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούλησή τους. 
  • Χρήση τεχνητής νοημοσύνης προς εκμετάλλευση ευάλωτων σημείων του ατόμου (πχ λόγω ηλικίας, αναπηρίας, της κοινωνικής ή οικονομικής κατάστασής του). 
Εξαιρέσεις 

Οι νομοθέτες συμφώνησαν σε μια σειρά από διασφαλίσεις με ελάχιστες εξαιρέσεις για τη χρήση βιομετρικών συστημάτων ταυτοποίησης (“RBI“) σε χώρους προσβάσιμους στο κοινό για σκοπούς επιβολής του νόμου, υπό την προϋπόθεση της προηγούμενης δικαστικής άδειας και για αυστηρά καθορισμένους καταλόγους εγκλημάτων. 

Το “Post-remote” RBI θα χρησιμοποιηθεί αυστηρά στη στοχευμένη έρευνα ατόμου που έχει καταδικαστεί ή είναι ύποπτο για διάπραξη σοβαρού εγκλήματος. 

Το “Real-time” RBI θα συμμορφώνεται με αυστηρούς όρους και η χρήση του θα είναι περιορισμένη σε χρόνο και τοποθεσία, για τους σκοπούς: 

  • Της στοχευμένης έρευνας θυμάτων (απαγωγή, εμπορία ανθρώπων, σεξουαλική εκμετάλλευση κλπ),
  • Της πρόληψης συγκεκριμένης και παρούσας τρομοκρατικής απειλής, ή 
  • Του εντοπισμού ή ταυτοποίησης ατόμου που είναι ύποπτο ότι έχει διαπράξει ένα από τα συγκεκριμένα εγκλήματα που αναφέρονται στον κανονισμό (π.χ. τρομοκρατία, εμπορία ανθρώπων, σεξουαλική εκμετάλλευση, δολοφονία, απαγωγή, βιασμός, ένοπλη ληστεία, συμμετοχή σε εγκληματική οργάνωση, περιβαλλοντικό έγκλημα). 
Υποχρεώσεις για συστήματα υψηλού κινδύνου 

Για συστήματα τεχνητής νοημοσύνης που ταξινομούνται ως υψηλού κινδύνου (λόγω της σημαντικής πιθανής βλάβης στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου), συμφωνήθηκαν σαφείς υποχρεώσεις. 

Οι ευρωβουλευτές συμπεριέλαβαν υποχρεωτική εκτίμηση επιπτώσεων στα θεμελιώδη δικαιώματα, μεταξύ άλλων απαιτήσεων, που θα ισχύουν επίσης για τον ασφαλιστικό και τον τραπεζικό τομέα. 

Τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για να επηρεάσουν το αποτέλεσμα των εκλογών και τη συμπεριφορά των ψηφοφόρων, ταξινομούνται επίσης ως υψηλού κινδύνου. 

Οι πολίτες θα έχουν το δικαίωμα να υποβάλλουν καταγγελίες για συστήματα τεχνητής νοημοσύνης και να λαμβάνουν εξηγήσεις σχετικά με αποφάσεις που βασίζονται σε συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου που επηρεάζουν τα δικαιώματά τους. 

Προστατευτικά μέτρα για γενικά συστήματα τεχνητής νοημοσύνης 

Για να ληφθεί υπόψη το ευρύ φάσμα εργασιών που μπορούν να επιτελέσουν τα συστήματα τεχνητής νοημοσύνης και η γρήγορη επέκταση των δυνατοτήτων τους, συμφωνήθηκε ότι τα συστήματα τεχνητής νοημοσύνης γενικής χρήσης (GPAI) και τα μοντέλα GPAI στα οποία βασίζονται, θα πρέπει να συμμορφώνονται με τις απαιτήσεις διαφάνειας που προτάθηκαν αρχικά από το Κοινοβούλιο. 

Οι απαιτήσεις αυτές περιλαμβάνουν τη σύνταξη τεχνικής τεκμηρίωσης, τη συμμόρφωση με τη νομοθεσία της ΕΕ για τα πνευματικά δικαιώματα και τη δημοσιοποίηση λεπτομερών περιλήψεων σχετικά με το περιεχόμενο που χρησιμοποιείται για την εκπαίδευσή τους. 

Για τα μοντέλα GPAI υψηλού αντίκτυπου με συστημικό κίνδυνο, οι προβλέπονται πιο αυστηρές υποχρεώσεις. Εάν αυτά τα μοντέλα πληρούν ορισμένα κριτήρια, θα πρέπει να πραγματοποιήσουν αξιολογήσεις μοντέλων, να αξιολογήσουν και να μετριάσουν τους συστημικούς κινδύνους, να πραγματοποιήσουν δοκιμές αντιπαράθεσης, να αναφέρουν στην Επιτροπή σοβαρά συμβάντα, να διασφαλίσουν την ασφάλεια στον κυβερνοχώρο και να αναφέρουν την ενεργειακή τους απόδοση. 

Οι ευρωβουλευτές επέμειναν επίσης ότι, έως ότου δημοσιευθούν εναρμονισμένα πρότυπα της ΕΕ, οι GPAI με συστημικό κίνδυνο μπορούν να βασίζονται σε κώδικες πρακτικής για να συμμορφωθούν με τον κανονισμό. 

Μέτρα για τη στήριξη της καινοτομίας και των ΜμΕ

Οι ευρωβουλευτές ήθελαν να διασφαλίσουν ότι οι επιχειρήσεις, ειδικά οι Μικρομεσαίες, μπορούν να αναπτύξουν λύσεις τεχνητής νοημοσύνης χωρίς πίεση από τους μεγάλους του κλάδου που ελέγχουν την σχετική αλυσίδα. 

Για το σκοπό αυτό, η συμφωνία προωθεί τα λεγόμενα ρυθμιστικά «sandboxes» και πραγματικές δοκιμές, που έχουν δημιουργηθεί από τις εθνικές αρχές για την ανάπτυξη και την εκπαίδευση καινοτόμου τεχνητής νοημοσύνης πριν από τη διάθεσή της στην αγορά. 

Κυρώσεις

Η μη συμμόρφωση με τους κανόνες μπορεί να οδηγήσει σε πρόστιμα που κυμαίνονται από 35 εκατομμύρια ευρώ ή 7% του παγκόσμιου κύκλου εργασιών έως 7,5 εκατομμύρια ή 1,5 % του κύκλου εργασιών, ανάλογα με την παράβαση και το μέγεθος της εταιρείας. 

Επόμενα βήματα 

Το συμφωνηθέν κείμενο θα πρέπει τώρα να εγκριθεί επίσημα τόσο από το Κοινοβούλιο όσο και από το Συμβούλιο για να γίνει δίκαιο της ΕΕ. Οι επιτροπές Εσωτερικής Αγοράς και Πολιτικών Ελευθεριών του Κοινοβουλίου θα ψηφίσουν τη συμφωνία σε προσεχή συνεδρίαση.


Το Δικηγορικό μας Γραφείο, για περισσότερα από 15 χρόνια εξειδικεύεται στο Εταιρικό και Εμπορικό Δίκαιο. Επικοινωνήστε μαζί μας για σας καθοδηγήσουμε και να σας συμβουλεύσουμε σε κάθε θέμα σχετικά με την τεχνητή νοημοσύνη.