Η Τεχνητή Νοημοσύνη (Τ.Ν.) είναι μια τεχνολογική πρόκληση, που εξελίσσεται με υψηλή ταχύτητα, τα τελευταία χρόνια. Με απλά λόγια, για την κατανόηση της έννοιας της τεχνητής νοημοσύνης, μπορούμε να έχουμε στο μυαλό μας τον τρόπο που οι άνθρωποι έχουν τη δυνατότητα να χρησιμοποιούν Αλγόριθμους για να επεξεργάζονται την μεγάλη ποσότητα δεδομένων που συλλέγουν, με σκοπό την καλύτερη λήψη αποφάσεων σε κάποιους τομείς (Εργασία, Κοινωνική Ασφάλιση, Περιβάλλον, Διακυβέρνηση τόπου/ εκλογές κα).
Φυσικά, οι υπολογιστές δεν θα πρέπει, τουλάχιστον αποκλειστικά, να λαμβάνουν αποφάσεις για λογαριασμό των ανθρώπων και δεν θα πρέπει να αντικαθιστούν τον ανθρώπινο παράγοντα. Αντίθετα, η σωστή εφαρμογή και υιοθέτηση της Τ.Ν. έχει σκοπό να δημιουργεί -μεταξύ άλλων- μια καλή σχέση και διάδραση μεταξύ ανθρώπων και μηχανών. Αυτή την επιδίωξη επεσήμανε και πρόσφατα ο Thierry BRETON, Ευρωπαίος Επίτροπος, λέγοντας ότι η Τ.Ν. είναι ένα μέσο για την επίτευξη ενός σκοπού και όχι ο ίδιος ο αυτοσκοπός.
Στο σημείο αυτό, αξίζει να παραθέσουμε μία ιστορική αναφορά στην πορεία της Τ.Ν. στην Ευρώπη:
Το 2019 -μετά την έναρξη των μακροχρόνιων διαβουλεύσεων τον Απρίλιο του 2018- η ομάδα εμπειρογνωμόνων για την Τ.Ν., εξέδωσε τις «Οδηγίες δεοντολογίας για αξιόπιστη ΤΝ» (https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai). Οι Οδηγίες αυτές προτείνουν, ότι πρέπει να ακολουθεί η Τ.Ν. μια ανθρωποκεντρική προσέγγιση καθώς επίσης απαριθμούν 7 βασικές απαιτήσεις, που πρέπει να πληρούν τα προγράμματα και συσκευές Τ.Ν., προκειμένου να είναι αξιόπιστα.
Το 2020, εκδόθηκε η «Λευκή Βίβλος για την Τεχνητή Νοημοσύνη» από την Ευρωπαϊκή Επιτροπή (https://ec.europa.eu/digital-single-market/en/news/white-paper-artificial-intelligence-public-consultation-towards-european- Approach-excellence). Στην εν λόγω έκδοση η προσέγγιση είχε το περιεχόμενο η ΤΝ να επικεντρώνεται στην αριστεία και την εμπιστοσύνη, με στόχο την ενίσχυση της έρευνας και βιομηχανίας με την απόλυτη εξασφάλιση των θεμελιωδών δικαιωμάτων.
Η εν λόγω Λευκή Βίβλος ακολούθησε μια Έκθεση «σχετικά με τις επιπτώσεις της Τεχνητής Νοημοσύνης στο Διαδίκτυο των πραγμάτων και στη ρομποτική» (https://ec.europa.eu/info/sites/default/files/report-safety-liability-artificial-intelligence-feb2020_en_1.pdf).
Παράλληλα εξήχθει και το ακόλουθο συμπέρασμα αναφορικά με τα κενά που υπάρχουν και την απόλυτη ανάγκη να καλυφθούν:
«Η εμφάνιση νέων ψηφιακών τεχνολογιών όπως η Τ.Ν., το IoT και η ρομποτική δημιουργούν νέες προκλήσεις όσον αφορά την ασφάλεια των προϊόντων και την ευθύνη μας, όπως η συνδεσιμότητα, η αυτονομία, η εξάρτηση από τα δεδομένα, η αδιαφάνεια, η πολυπλοκότητα των προϊόντων και συστημάτων, οι ενημερώσεις λογισμικού και η πιο περίπλοκη διαχείριση ασφάλειας.
Η ισχύουσα νομοθεσία για την ασφάλεια των προϊόντων περιέχει ορισμένα κενά που πρέπει να αντιμετωπιστούν. Οι μελλοντικές εργασίες για την προσαρμογή διαφορετικών νομοθετικών διατάξεων σε αυτό το πλαίσιο θα γίνουν με συνεπή και εναρμονισμένο τρόπο.
Οι νέες προκλήσεις όσον αφορά την ασφάλεια δημιουργούν επίσης νέες προκλήσεις και αναζητήσεις όσον αφορά την ευθύνη. Η ευθύνη λοιπόν είναι αυτή που πρέπει να αντιμετωπιστεί, ώστε να διασφαλιστεί το ίδιο επίπεδο προστασίας σε σύγκριση με ό,τι ίσχυε μέχρι τώρα, διατηρώντας παράλληλα και την ισορροπία για την αναζήτηση της τεχνολογικής καινοτομίας.
Αυτό θα συμβάλει στη δημιουργία εμπιστοσύνης στην εφαρμογή των νεοφυών ψηφιακών τεχνολογιών και θα δημιουργήσει σταθερότητα στις επενδύσεις».
Το πιο πολύτιμο όμως και προοδευτικό έργο, αποτελεί η νέα Πρόταση Κανονισμού του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου για τους εναρμονισμένους κανόνες για την Τεχνητή Νοημοσύνη (AI ACT) που είδαν το φως της δημοσιότητας στις 21 Απριλίου 2021
Ο Κανονισμός αναμένεται να εδραιώσει την εμπιστοσύνη για την ΤΝ που αυτή τη στιγμή φαντάζει να απουσιάζει. Αυτό λοιπόν, το πρώτο νομοθετικό́ πλαίσιο για την Τεχνητή́ Νοημοσύνη παγκοσμίως, προβλέπει και θέτει όρια και αυστηρούς κανόνες στην χρήση της, ενώ απειλεί́ με μεγάλα πρόστιμα.
Η Ευρώπη έχει ένα σιωπηλό στοίχημα, να προσφέρει αξιόπιστη ΤΝ έναντι μιας τάσης για πλήρη επικράτησή της. Άρα, εγγυάται την ασφάλεια για τα θεμελιώδη δικαιώματα των πολιτών και των επιχειρήσεων, χωρίς να απορρίπτει τη τεχνητή́ νοημοσύνη, σε δράσεις στην ΕΕ όπως είναι οι επενδύσεις και η καινοτομία.
Το Σχέδιο του Κανονισμού απαγορεύει ορισμένες εφαρμογές ΤΝ που θεωρούνται ως επικίνδυνες ή/και απειλητικές για την ασφάλεια και τα δικαιώματα των ανθρώπων. Πολύ ιδιαίτερη σημασία θα παίξουν οι εφαρμογές αναφορικά με βιομετρικά δεδομένα όπως είναι αυτή της αναγνώρισης προσώπου, η οποία θα επιτρέπεται εξαιρετικά και με αυστηρές προϋποθέσεις.
Απειλή για την μη συμμόρφωση, θα αποτελούν τα υπέρογκα πρόστιμα καθώς η παραβίαση των κανόνων θα μπορούσε να οδηγήσει σε πρόστιμα για τις εταιρείες έως και 6% του παγκόσμιου κύκλου εργασιών τους.
Συμμόρφωση δε πρέπει να επιδεικνύουν όλες οι εταιρείες, ευρωπαϊκές ή μη, εφόσον τα συστήματα τεχνητής νοημοσύνης επηρεάζουν Ευρωπαίους πολίτες.
Το νέο σχέδιο λοιπόν, ρυθμίζει τη χρήση των συστημάτων ΤΝ από εταιρείες και κυβερνήσεις, και όχι τα ιδία τα συστήματα και θα εφαρμόζεται οριζόντια σε όλα τα κράτη.
Θα επιβάλλει αυστηρή́ απαγόρευση των συστημάτων που κρίνονται ως απειλή́ για την ασφάλεια, τον βιοπορισμό́ και τα δικαιώματα των ατόμων, όπως ενδεικτικά εφαρμογές τεχνητής νοημοσύνης που μπορούν να παρακάμψουν την ελεύθερη βούληση των χρηστών πχ φωνητικό́ βοήθημα σε εφαρμογές για παρότρυνση ανηλίκων σε επικίνδυνη συμπεριφορά́, ή εφαρμογές που επιτρέπουν την «βαθμολόγηση» των ανθρώπων από́ τις κυβερνήσεις.
Αντίστοιχα, η χρήση εφαρμογών ΤΝ που θεωρούνται ως υψηλού κινδύνου, στα οποία εντάσσονται τα συστήματα που χρησιμοποιούνται στην εκπαίδευση, στην απασχόληση εργαζομένων (π.χ. Λογισμικό́ αυτόματης διαλογής μέσω ΤΝ βιογραφικών σημειωμάτων για πρόσληψης), σε χρηματοπιστωτικές υπηρεσίες (π.χ. αξιολόγηση πιστοληπτικής ικανότητας όπου εκδίδονται αυτοματοποιημένες αποφάσεις χωρίς να παρεμβάλλεται άνθρωπος), στην επιβολή́ του νόμου (π.χ. Αξιολόγηση μέσω ΤΝ της αξιοπιστίας των αποδεικτικών στοιχειών ή μαρτύρων), στη μετανάστευση ή το άσυλο, στην απονομή́ δικαιοσύνης κα.
Για να επιτραπούν όλα τα ανωτέρω, θα απαιτείται διαφάνεια, εποπτεία και παρεμβάσεις ανθρώπινες, ενώ για να υπάρχουν εξαιρέσεις από τις αυστηρές διατάξεις θα πρέπει να απειλούνται σοβαρότατα συμφέροντα ή θα επικρατούν από στάθμιση άλλα δικαιώματα, όπως πχ να εξιχνιάζονται τρομοκρατικές απειλές, αν κινδυνεύουν παιδιά, ή καταπολέμηση άλλων αξιόποινων πράξεων.
Αντιδράσεις, για την αυστηρότητα του Σχεδίου και το ενδεχόμενο κόστος συμμόρφωσης, εκφράστηκαν πολύ έντονα, όμως αυτό που πρέπει να επικρατήσει μέσα από μία στάθμιση είναι το παν μέτρον άριστον. Ναι η καινοτομία πρέπει να υπάρξει να μην εξαλειφθεί και να ακμάσει. Ναι τα μέσα που προτείνονται θα βοηθήσουν κατά πολύ στην καθημερινότητά μας και σε όλους τους τομείς. Ναι δε μπορούμε να γυρίσουμε το ποτάμι. Όμως όλα πρέπει να γίνουν με απόλυτο σεβασμό στον Άνθρωπο, χωρίς να παρακάμπτεται, χωρίς να περιθωριοποιείται από συστήματα ΤΝ και χωρίς να κινδυνεύει.
Όλγα Ν. Τσιπτσέ
LL.M. Δικηγόρος παρ’ Αρείω Πάγω
Διαιτητής-Διαμεσολαβήτρια ΥΔΔΑΔ
DPO – GDPR expert.