Το πρώτο – παγκοσμίως – ρυθμιστικό πλαίσιο για την τεχνητή νοημοσύνη, το “Artificial Intelligence Act”, έθεσε χθες σε ισχύ η Ευρωπαϊκή Ένωση. Η Πράξη για την Τεχνητή Νοημοσύνη, γνωστή ως AI Act, είναι το πρώτο σε παγκόσμιο επίπεδο ρυθμιστικό πλαίσιο για το artificial intelligence κι έχει στόχο να διασφαλίσει ότι το ΑΙ είναι αξιόπιστο, ασφαλές, καινοτόμο και σέβεται τα θεμελιώδη δικαιώματα της ΕΕ όπως αναφέρει ο Σύνδεσμος Επιχειρήσεων Πληροφορικής & Επικοινωνιών Ελλάδας – ΣΕΠΕ.
Η εμβληματική νομοθεσία ακολουθεί μια προσέγγιση “βάσει κινδύνου”, η οποία σημαίνει ότι όσο υψηλότερος είναι ο κίνδυνος πρόκλησης βλάβης στην κοινωνία από το ΑΙ, τόσο αυστηρότεροι είναι οι κανόνες. Η πλειονότητα των διατάξεων του κανονισμού θα αρχίσει να εφαρμόζεται στις 2 Αυγούστου 2026.
Ωστόσο, οι απαγορεύσεις των συστημάτων τεχνητής νοημοσύνης, που θεωρείται ότι ενέχουν μη αποδεκτούς κινδύνους, θα εφαρμοστούν ήδη μετά από έξι μήνες, ενώ οι κανόνες για τα λεγόμενα μοντέλα “ΑΙ γενικού σκοπού” θα εφαρμοστούν μετά από 12 μήνες.
Προκειμένου να καλυφθεί η μεταβατική περίοδος πριν από την πλήρη εφαρμογή του κανονισμού, η Επιτροπή δρομολόγησε το “Σύμφωνο για την τεχνητή νοημοσύνη”. Η εν λόγω πρωτοβουλία καλεί τους προγραμματιστές ΑΙ να υιοθετήσουν οικειοθελώς τις βασικές υποχρεώσεις του κανονισμού πριν από τις νόμιμες προθεσμίες.
Μάλιστα, τα κράτη-μέλη έχουν πλέον προθεσμία έως τις 2 Αυγούστου 2025, για να ορίσουν τις εθνικές αρμόδιες αρχές, οι οποίες θα εποπτεύουν την εφαρμογή των κανόνων για τα συστήματα τεχνητής νοημοσύνης, καθώς και την αγορά.
Υψηλά πρόστιμα
Ο Κανονισμός, μεταξύ άλλων, προβλέπει αυστηρές κυρώσεις και πρόστιμα για τις εταιρείες που δεν συμμορφώνονται με τις προβλέψεις του.
Τα πρόστιμα μπορούν να φθάσουν έως και το 7% του παγκόσμιου ετήσιου κύκλου εργασιών για παραβιάσεις απαγορευμένων εφαρμογών ΤΝ, έως και το 3% για παραβιάσεις άλλων υποχρεώσεων και έως και το 1,5 % για την παροχή ανακριβών πληροφοριών.
Τι προβλέπει
Το ΑΙ Act, η πρώτη – παγκοσμίως – νομοθετική εργαλειοθήκη για την τεχνητή νοημοσύνη, χωρίζει τα συστήματα ΑΙ σε κατηγορίες, ανάλογα με το επίπεδο κινδύνου που αντιπροσωπεύουν και θα θεσπίζει υποχρεώσεις για τους παρόχους, αλλά και για όσους τα διαθέτουν, για καθεμία από αυτές τις κατηγορίες.
Ειδικά για τα συστήματα τεχνητής νοημοσύνης, που κατατάσσονται στο επίπεδο υπερβολικά υψηλού κινδύνου για την ανθρώπινη ασφάλεια, θα απαγορεύονται πλήρως, όπως σε περιπτώσεις “κοινωνικής βαθμολόγησης”.
Τα συστήματα ΑΙ, που παρουσιάζουν περιορισμένο μόνο κίνδυνο, θα υπόκεινται σε πολύ ήπιες υποχρεώσεις διαφάνειας, ενώ τα συστήματα υψηλού κινδύνου θα αδειοδοτούνται μεν, αλλά θα υπόκεινται σε ένα σύνολο απαιτήσεων και υποχρεώσεων για την απόκτηση πρόσβασης στην αγορά της ΕΕ.
Στο μεταξύ, συστήματα ΑΙ, όπως για παράδειγμα η γνωσιακή συμπεριφορική χειραγώγηση και η κοινωνική βαθμολόγηση, θα απαγορευτούν από την ΕΕ, επειδή η επικινδυνότητά τους θεωρείται απαράδεκτη. Ο κανονισμός απαγορεύει, επίσης, τη χρήση ΤΝ για προληπτική αστυνόμευση με βάση την κατάρτιση προφίλ και συστήματα, που χρησιμοποιούν βιομετρικές πληροφορίες για την κατηγοριοποίηση ανθρώπων σύμφωνα με συγκεκριμένα χαρακτηριστικά, όπως τη φυλετική καταγωγή, τη θρησκεία ή τον γενετήσιο προσανατολισμό.