Η ΕΦΑΡΜΟΓΗ ΤΗΣ ΑΡΧΗΣ ΤΗΣ ΔΙΑΦΑΝΕΙΑΣ ΣΤΗΝ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ
- Έκδοση: 2026
- Σχήμα: 17x24
- Βιβλιοδεσία: Εύκαμπτη
- Σελίδες: 248
- ISBN: 978-618-08-0850-6
Η μονογραφία έχει ως πρωταρχικό αντικείμενο τη διερεύνηση του εννοιολογικού περιεχομένου και των ορίων εφαρμογής της αρχής της διαφάνειας στο πλαίσιο των συστημάτων τεχνητής νοημοσύνης υπό το φως του νέου κανονιστικού πλαισίου. Ειδικότερα, τίθενται τα επιμέρους βασικά ερωτήματα:
- Ποιο είναι το ακριβές περιεχόμενο και οι διαστάσεις της αρχής της διαφάνειας όταν εφαρμόζεται σε τεχνολογίες μηχανικής μάθησης και αλγοριθμικής λήψης αποφάσεων;
- Πώς θεμελιώνεται η αρχή μέσα από τον Γενικό Κανονισμό Προστασίας Δεδομένων και ποια είναι η σχέση της με άλλες αρχές και έννοιες, όπως η επεξηγησιμότητα, η ιχνηλασιμότητα και η λογοδοσία;
- Ποιος είναι ο ρόλος της νομολογίας στην ερμηνεία των σχετικών διατάξεων και στη διαμόρφωση ενός δικαιώματος στην επεξήγηση;
- Πώς διαμορφώνεται η έννοια της διαφάνειας στον Κανονισμό για την Τεχνητή Νοημοσύνη και ποιο είναι το περιεχόμενο των νέων υποχρεώσεων;
- Πώς έχει αντιμετωπισθεί το ζήτημα της διαφάνειας από τις υφιστάμενες μεθοδολογίες και τα μοντέλα εκτίμησης αντικτύπου, ως εργαλεία ελέγχου και λογοδοσίας;
Απευθύνεται σε νομικούς, επαγγελματίες τεχνολογίας, ερευνητές και φορείς χάραξης πολιτικής που επιδιώκουν σαφή κατανόηση των υποχρεώσεων που απορρέουν από το νέο κανονιστικό πλαίσιο. Ο αναγνώστης θα βρει συστηματική ανάλυση της νομικής θεωρίας και νομολογίας, των διεθνών πρακτικών, καθώς και συγκριτική αξιολόγηση των μεθοδολογιών εκτίμησης αντικτύπου. Πρόκειται για ένα χρήσιμο και επίκαιρο έργο για όποιον θέλει να κατανοήσει τη διαφάνεια στην εποχή της τεχνητής νοημοσύνης.
ΠΡΟΛΟΓΟΣ
Ευχαριστίες
ΕΙΣΑΓΩΓΗ 1
ΚΕΦΑΛΑΙΟ 1
Η τεχνολογική διάσταση της Τεχνητής Νοημοσύνης
1.1. H έννοια της τεχνητής νοημοσύνης 9
1.2. Νομοθετικοί ορισμοί της τεχνητής νοημοσύνης 12
1.3. To «μαύρο κουτί» 16
ΚΕΦΑΛΑΙΟ 2
Η διαφάνεια ως αρχή και δικαίωμα
2.1. Η έννοια της διαφάνειας 23
2.2. Η διαφάνεια ως αρχή της σύννομης και θεμιτής επεξεργασίας προσωπικών δεδομένων 27
2.3. Η αρχή της διαφάνειας υπό το πρίσμα του ΓΚΠΔ 31
ΚΕΦΑΛΑΙΟ 3
Το δικαίωμα στην επεξήγηση υπό το πρίσμα του ΓΚΠΔ
3.1. Η εμβέλεια του άρθρου 22 ΓΚΠΔ (αυτοματοποιημένη ατομική λήψη αποφάσεων) 37
3.1.1. Δικαίωμα ή υποχρέωση; 37
3.1.2. Προϋποθέσεις εφαρμογής του άρθρου 22(1) ΓΚΠΔ 40
3.1.3. Περιορισμοί του δικαιώματος του άρθρου 22 ΓΚΠΔ και ελάχιστες αντισταθμιστικές εγγυήσεις 42
3.2. Νομικά θεμέλια ενός δικαιώματος στην επεξήγηση 44
3.2.1. Η έννοια της επεξήγησης στο πλαίσιο της αυτοματοποιημένης διαδικασίας λήψης αποφάσεων 44
3.2.2. Το δικαίωμα στην επεξήγηση μέσα από το άρθρο 22 ΓΚΠΔ και την αιτιολογική σκέψη 71 ΓΚΠΔ 46
3.2.3. Μια συνδυαστική προσέγγιση στο δικαίωμα στην επεξήγηση 50
ΚΕΦΑΛΑΙΟ 4
H νομολογιακή προσέγγιση του δικαιώματος στην επεξήγηση
4.1. ΔΕΕ C-634/21 (Υπόθεση SCHUFA Holding) 56
4.2. ΔΕΕ C-203/22 (Υπόθεση Dun & Bradstreet) 60
4.2.1. H ερμηνεία του άρθρου 15(1)(η) ΓΚΠΔ 61
4.2.2. Περιεχόμενο της έννοιας «σημαντικές πληροφορίες» 63
4.2.3. Περιορισμοί του δικαιώματος στην επεξήγηση 66
4.2.4. Καταληκτικές παρατηρήσεις 66
4.3. ΔΕΕ C-806/24 (Υπόθεση YETTEL BULGARIA) 67
4.4. Υποθέσεις Uber και Ola 68
4.5. Regional Court Traunstein, Υπόθεση C. 6 O 2465/23 70
4.6. BVwG - W252 2246581-1/6E 72
ΚΕΦΑΛΑΙΟ 5
Από τον ΓΚΠΔ στον ΑΙΑ – Η εννοιολογική αντιμετώπιση της διαφάνειας
5.1. Η έννοια της διαφάνειας σύμφωνα με την HLEG 75
5.2. Η έννοια της διαφάνειας όπως διαμορφώθηκε από το Συμβούλιο της Ευρώπης 80
5.3. ΟΟΣΑ (OECD) Σύσταση του Συμβουλίου για την Τεχνητή Νοημοσύνη 82
5.4. Η έννοια της διαφάνειας σε διάφορες έννομες τάξεις 83
5.4.1. Ελλάδα 83
5.4.2. Γαλλία 85
5.4.3. Ηνωμένο Βασίλειο 86
5.4.4. Η.Π.Α. 88
5.4.5. Κίνα 92
ΚΕΦΑΛΑΙΟ 6
H έννοια της διαφάνειας μέσα από τον Κανονισμό για την Τεχνητή Νοημοσύνη
6.1. Ο Κανονισμός για την Τεχνητή Νοημοσύνη 95
6.2. Ο ορισμός της διαφάνειας κατά τον ΑΙΑ 99
6.3. Η υποχρέωση διαφάνειας σε συστήματα υψηλού κινδύνου 100
6.4. Η υποχρέωση διαφάνειας για παρόχους και φορείς εφαρμογής ορισμένων συστημάτων 103
6.4.1. Απαίτηση διαφάνειας σε διαδραστικά συστήματα τεχνητής νοημοσύνης 104
6.4.2. Απαίτηση διαφάνειας σε συστήματα που παράγουν συνθετικό ήχο, εικόνα, βίντεο ή κείμενο 105
6.4.3. Απαίτηση διαφάνειας σε συστήματα αναγνώρισης συναισθημάτων και συστήματα βιομετρικής κατηγοριοποίησης 106
6.4.4. Απαίτηση διαφάνειας σε συστήματα που παράγουν προϊόντα βαθυπαραποίησης (“deep fakes”) 107
6.4.5. Απαίτηση διαφάνειας σε συστήματα που παράγουν κείμενο που ενημερώνει το κοινό για ζητήματα δημόσιου ενδιαφέροντος 108
6.5. Υποχρεώσεις διαφάνειας των παρόχων μοντέλων τεχνητής νοημοσύνης γενικού σκοπού 108
6.6. Η διαφάνεια σε μοντέλα που διατίθενται με δωρεάν άδεια ανοικτού κώδικα 112
6.7. Η επεξήγηση ως [ατομικό] δικαίωμα 113
6.8. Η λογοδοσία, η ιχνηλασιμότητα και η ανθρώπινη εποπτεία ως συμπληρωματικά στοιχεία της διαφάνειας 118
ΚΕΦΑΛΑΙΟ 7
Διαφάνεια και εκτιμήσεις αντικτύπου
7.1. Διαφάνεια ήδη από τον σχεδιασμό και εξ ορισμού 123
7.2. Διαφάνεια και εκτίμηση αντικτύπου για την προστασία προσωπικών δεδομένων (DPIA) 126
7.3. Εκτίμηση αντικτύπου στα θεμελιώδη δικαιώματα (FRIA) 133
7.4. DPIA vs FRIA 138
7.5. Αξιολόγηση συμμόρφωσης (Conformity assessment) 147
7.6. Αλγοριθμική εκτίμηση αντικτύπου του Ν. 4961/2022 151
ΚΕΦΑΛΑΙΟ 8
Αρχή της διαφάνειας και μοντέλα αλγοριθμικής εκτίμησης αντικτύπου
8.1. Αλγοριθμική εκτίμηση αντικτύπου - Καναδάς 157
8.2. Εκτίμηση αντικτύπου στα ανθρώπινα δικαιώματα, τη δημοκρατία και το κράτος δικαίου (HUDERIA) – Συμβούλιο της Ευρώπης 160
8.2.1. Η νομική φύση της HUDERIA 160
8.2.2. Το πλαίσιο της HUDERIA 162
8.2.3. Η αντιμετώπιση της αρχής της διαφάνειας μέσα από την HUDERIA 163
8.3. Αλγοριθμική εκτίμηση αντικτύπου στα θεμελιώδη δικαιώματα (FRAIA) - Ολλανδία 166
8.4. Εκτίμηση αντικτύπου στα θεμελιώδη δικαιώματα της Αρχής Προστασίας Δεδομένων της Καταλονίας 169
8.5. Εκτίμηση αντικτύπου στα θεμελιώδη δικαιώματα με βάση την Πράξη για την Τεχνητή Νοημοσύνη (FRIAct) 172
8.6. Πρότυπο για την Ηθική της Τεχνητής Νοημοσύνης - Εκπαιδευτικός, Επιστημονικός και Πολιτιστικός Οργανισμός των Ηνωμένων Εθνών (UNESCO) 174
8.7. Αλγοριθμική εκτίμηση αντικτύπου στον κλάδο της υγείας - Ada Lovelace Institute 179
8.8. Πλαίσιο αξιολόγησης για συστήματα ΤΝ χωρίς διακρίσεις - Φινλανδία 180
ΚΕΦΑΛΑΙΟ 9
Συγκριτική αξιολόγηση των αλγοριθμικών εκτιμήσεων αντικτύπου
9.1. Μεθοδολογικά ζητήματα σχεδιασμού εργαλείων αλγοριθμικής εκτίμησης αντικτύπου 183
9.1.1. Τυποποίηση μεθοδολογίας 183
9.1.2. Δομή και τρόπος αξιολόγησης 185
9.1.3. Περιεχόμενο αλγοριθμικής εκτίμησης αντικτύπου 188
9.2. Η αντιμετώπιση της έννοιας της διαφάνειας μέσα από τα μοντέλα αλγοριθμικής εκτίμησης αντικτύπου 189
9.2.1. Διαφάνεια ως προς την ανάπτυξη και λειτουργία του εργαλείου 189
9.2.2. Η διαβούλευση ως δομικό στοιχείο της διαφάνειας 191
9.2.3. Ο ρόλος της εποπτείας 193
9.2.4. Η αντιμετώπιση του «μαύρου κουτιού» στις αλγοριθμικές εκτιμήσεις αντικτύπου 194
ΚΕΦΑΛΑΙΟ 10
Συμπεράσματα – Επαναπροσδιορίζοντας την έννοια της διαφάνειας
199
ΠΗΓΕΣ - ΒΙΒΛΙΟΓΡΑΦΙΑ
ΔΙΕΘΝΗΣ ΒΙΒΛΙΟΓΡΑΦΙΑ 207
ΕΛΛΗΝΙΚΗ ΒΙΒΛΙΟΓΡΑΦΙΑ 216
ΝΟΜΟΘΕΣΙΑ – ΝΟΜΟΛΟΓΙΑ – ΛΟΙΠΕΣ ΠΗΓΕΣ 219
ΕΥΡΕΤΗΡΙΟ 225
Σελ. 1
ΕΙΣΑΓΩΓΗ
Η Τέταρτη Βιομηχανική Επανάσταση χαρακτηρίζεται από μια σειρά αλυσιδωτών τεχνολογικών εξελίξεων, οι οποίες “καθιστούν δυσδιάκριτα τα όρια μεταξύ του αναλογικού, του ψηφιακού και του βιολογικού κόσμου” και είναι ικανές να μεταρρυθμίσουν εκ βάθρων τις σύγχρονες οικονομικές και κοινωνικές δομές. Σε αυτό το ψηφιακό οικοσύστημα διαμορφώνεται ένα νέο μοντέλο σύγχρονου ανθρώπου, ο “Homo Digitalis”, o οποίος δρα, αναπτύσσεται και (συν)υπάρχει εντός μίας “Αλγοριθμικής Κοινωνίας”. Με τον όρο αυτό προσδιορίζεται μία – όχι και τόσο φουτουριστική πλέον – κοινωνία, στην οποία αποφάσεις με άμεση επίπτωση σε κάθε πτυχή της καθημερινότητας τείνουν να λαμβάνονται επί τη βάσει ή με τη συνδρομή αυτοματοποιημένων διαδικασιών και αλγορίθμων, χωρίς την ουσιαστική παρέμβαση του ανθρώπινου παράγοντα. Παρατηρείται, λοιπόν, σταδιακά μία μετάβαση του τρόπου λειτουργίας των κέντρων λήψης αποφάσεων από παραδοσιακά σε πλήρως αυτοματοποιημένα μοντέλα που βασίζονται σε προηγμένα υπολογιστικά συστήματα, επεξεργάζονται τεράστιους όγκους δεδομένων και είναι σε θέση να μαθαίνουν από τις δικές τους εμπειρίες και να επιλύουν σύνθετα προβλήματα - ικανότητες που μέχρι πρότινος θεωρούνταν μοναδικές για τον άνθρωπο.
Η προοπτική της υποκατάστασης της ανθρώπινης συλλογιστικής από μηχανές και η περαιτέρω απώλεια του ελέγχου επί της τεχνολογίας έχει προκαλέσει έναν έντονο διεπιστημονικό διάλογο με σημαντικές νομικές και ηθικοκοινωνικές προεκτάσεις, αλλά και επιπτώσεις. Δεν είναι, ωστόσο, η πρώτη φορά στην ιστορία της ανθρωπότητας που συμβαίνει αυτό. Η έννοια του ανθρωπομορφισμού και η απόδοση ανθρώπινων ιδιοτήτων σε μη ανθρώπινα όντα, αντικείμενα, φυσικά ή υπερφυσικά φαινό-
Σελ. 2
μενα, διαπερνάει την αρχαία ελληνική ιστορία και μυθολογία, μέσα από την οποία ανατέλλουν τα τεχνολογικά οράματα της εποχής, νοήμονες μορφές και κατασκευές: από τον χάλκινο γίγαντα Τάλω έως τις εφευρέσεις του Ήρωνα και από τον Μηχανισμό των Αντικυθήρων έως τις μηχανικές υπηρέτριες του Ήφαιστου στην Ιλιάδα. Σήμερα, η ανθρωπότητα έχει μεταφερθεί από τη σφαίρα της μυθολογίας στη σφαίρα του εφικτού, όπου πλέον κάθε φιλόδοξο εγχείρημα δύναται να γίνει πράξη μέσω της τεχνολογίας, αλλά και οι ενεχόμενοι με την τεχνολογία κίνδυνοι και προβληματισμοί μεταφέρονται από θεωρητικό σε πρακτικό επίπεδο.
Αδιαμφισβήτητα, η εφαρμογή τεχνικών αυτοματοποιημένης λήψης αποφάσεων, χωρίς την ουσιαστική εμπλοκή του ανθρώπινου παράγοντα και δη μέσω συστημάτων τεχνητής νοημοσύνης, εγκυμονεί κινδύνους για θεμελιώδη δικαιώματα, όπως αυτό του πληροφοριακού αυτοκαθορισμού, ενώ μπορεί επίσης να υπονομεύσει την εμπιστοσύνη του ατόμου στη νομιμότητα και την αντικειμενικότητα αποφάσεων με καθοριστική για το ίδιο σημασία. Λαμβάνοντας, λοιπόν, υπόψη την συνεχώς αυξανόμενη εμφάνιση τέτοιων τεχνολογιών και επακολούθως τον αντίκτυπό τους, τόσο σε συλλογικό όσο και σε ατομικό επίπεδο, αναδεικνύονται, ως μείζονα ζητήματα, η διαφάνεια, η επεξηγησιμότητα και η ιχνηλασιμότητα της διαδικασίας λήψης των αποφάσεων που βασίζονται σε αντίστοιχες τεχνολογίες. Η ικανότητα να κοιτάξουμε μέσα στο σκοτεινό αλγοριθμικό σύμπαν, όπου νέες και άγνωστες μεταβλητές συλλέγονται, ταξινομούνται και συσχετίζονται διαρκώς, να κατανοήσουμε και να καταδείξουμε τον τρόπο λειτουργίας τους αποτελεί ένα κρίσιμο ζήτημα με σημαντικές τεχνολογικές και νομικές προεκτάσεις που δεν αφορά μόνο τα άτομα, τα οποία επηρεάζονται άμεσα από τέτοιες αποφάσεις, αλλά ένα σύνολο από εμπλεκόμενους παράγοντες, όπως αναλύεται στα ακόλουθα κεφάλαια.
Σελ. 3
Μείζον ζήτημα αποτελεί και η - αμφισβητούμενη - ικανότητα του ισχύοντος νομοθετικού και κανονιστικού πλαισίου να ρυθμίσει τις καινοτόμες και αταξινόμητες σχέσεις που προκύπτουν διαρκώς μέσα από τις νέες τεχνολογίες. Η έλλειψη «γνώσης» για τις πιθανές συνέπειες μιας τεχνολογίας, αλλά και για τον αντίκτυπο της νομοθεσίας στις μελλοντικές τεχνολογικές εξελίξεις - γνωστή ως «δίλημμα του Collingridge» - αποτελεί βασική παράμετρο της ρυθμιστικής διαδικασίας. Δεν είναι μόνο το «πότε», αλλά και το «πώς» είναι εφικτό να ρυθμιστεί μία τεχνολογία. Στην κατεύθυνση αυτή, ο Γενικός Κανονισμός Προστασίας Δεδομένων (εφεξής ΓΚΠΔ), με μία ουδέ-
Σελ. 4
τερη τεχνολογικά διάθεση, επιχείρησε αρχικά μέσω της υιοθέτησης βασικών αρχών – συμπεριλαμβανομένης και της αρχής της διαφάνειας - και εργαλείων να παράξει ένα πλαίσιο συμμόρφωσης που θα μπορεί να εφαρμοσθεί ευρέως σε όλους τους κλάδους. Εν συνεχεία η Ευρωπαϊκή Επιτροπή, προκειμένου ν’ ανταποκριθεί επιτυχώς στις αυξανόμενες τεχνολογικές προκλήσεις υιοθέτησε την Ευρωπαϊκή Στρατηγική για τα Δεδομένα, μέρος της οποίας αποτελεί και ο Κανονισμός για την Τεχνητή Νοημοσύνη που φιλοδοξεί να ρυθμίσει ειδικότερα ζητήματα της εφαρμογής της τεχνητής νοημοσύνης.
Η παρούσα μελέτη έχει, λοιπόν, ως πρωταρχικό αντικείμενο την διερεύνηση του εννοιολογικού περιεχομένου και των ορίων εφαρμογής της αρχής της διαφάνειας στο πλαίσιο των συστημάτων τεχνητής νοημοσύνης υπό το φως του νέου κανονιστικού πλαισίου, λαμβάνοντας υπόψη την τεχνολογική φύση και τα εγγενή εμπόδια που συνδέονται με μια τέτοια εφαρμογή. Ειδικότερα, τίθενται τα επιμέρους βασικά ερωτήματα: Ποιο είναι το ακριβές περιεχόμενο και οι διαστάσεις της αρχής της διαφάνειας όταν εφαρμόζεται σε τεχνολογίες μηχανικής μάθησης και αλγοριθμικής λήψης αποφάσεων; Πώς θεμελιώνεται η αρχή αυτή μέσα από τις διατάξεις του ΓΚΠΔ και ποια είναι η σχέση της με άλλες αρχές και έννοιες, όπως η επεξηγησιμότητα, η ιχνηλασιμότητα και η λογοδοσία; Ποιος είναι ο ρόλος της νομολογίας στην ερμηνεία των σχετικών διατάξεων και στη διαμόρφωση ενός δικαιώματος στην επεξήγηση; Πώς έχει αντιμετωπισθεί η έννοια της διαφάνειας στην ευρωπαϊκή, αλλά και σε άλλες διεθνείς έννομες τάξεις μέχρι σήμερα; Πώς διαφοροποιείται η έννοια της διαφάνειας στον ΑΙΑ – σε σχέση με τον ΓΚΠΔ – και ποιο είναι το περιεχόμενο των νέων υποχρεώσεων; Τέλος, πώς έχει αντιμετωπισθεί το ζήτημα της διαφάνειας από τις υφιστάμενες μεθοδολογίες και μοντέλα εκτίμησης αντικτύπου, ως εργαλεία ελέγχου και λογοδοσίας;
Τα ερωτήματα και οι προκλήσεις που ανακύπτουν για έναν ερευνητή στο συγκεκριμένο πεδίο είναι πάρα πολλές και συνδέονται άμεσα με τον έντονα δυναμικό χαρακτήρα του τομέα της τεχνητής νοημοσύνης. Η ραγδαία και συνεχιζόμενη τεχνολογική εξέλιξη καθιστά το αντικείμενο εξαιρετικά επίκαιρο και διαρκώς μεταβαλλόμενο,
Σελ. 5
γεγονός που απαιτεί συνεχή επαναξιολόγηση των δεδομένων και των συμπερασμάτων. Παράλληλα, η ρύθμιση της τεχνητής νοημοσύνης προσελκύει έντονο, πολυεπίπεδο και πολυεπιστημονικό παγκόσμιο ενδιαφέρον, από τον ακαδημαϊκό χώρο και τους φορείς χάραξης πολιτικής, έως τον επιχειρηματικό κόσμο και την κοινωνία των πολιτών. Το αποτέλεσμα είναι η παραγωγή ενός τεράστιου όγκου δημοσιεύσεων, δηλώσεων, κατευθυντήριων γραμμών και ρυθμιστικών κειμένων, τα οποία συχνά διαφέρουν ως προς το επιστημονικό βάθος, την ακρίβεια και την τεκμηρίωσή τους και καθιστούν τον εντοπισμό και την αξιολόγηση των κρίσιμων για τους σκοπούς της έρευνας πληροφοριών ιδιαίτερα δυσχερή . Επιπλέον, η δυσκολία αυτή εντείνεται όταν ο ερευνητής προέρχεται από τον χώρο της νομικής επιστήμης. Οι έννοιες, η ορολογία και οι τεχνικές παράμετροι που διέπουν την τεχνητή νοημοσύνη απαιτούν εξειδικευμένες γνώσεις πληροφορικής και στατιστικής και ως εκ τούτου προϋποθέτουν συνεργασία με επιστήμονες αυτών των πεδίων, ώστε η νομική ανάλυση να στηρίζεται σε σαφή κατανόηση των τεχνικών διαστάσεων του αντικειμένου.
Προκειμένου, λοιπόν, να δοθούν απαντήσεις στα παραπάνω θεμελιώδη ερωτήματα, η μελέτη δομείται σε δέκα επιμέρους κεφάλαια, καθένα από τα οποία καλείται να αναπτύξει και μία διαφορετική πτυχή της διαφάνειας:
Στο Κεφάλαιο 1 εξετάζεται η τεχνολογική διάσταση της τεχνητής νοημοσύνης, με έμφαση στην εννοιολογική αποσαφήνιση του όρου, την αποτύπωσή του στα νομοθετικά κείμενα και την πρόκληση του λεγόμενου «μαύρου κουτιού», δηλαδή της λειτουργικής αδιαφάνειας που ενυπάρχει στα αλγοριθμικά συστήματα. Στο κεφάλαιο αυτό ο ερευνητής καλείται να απαντήσει στο ερώτημα, τι είναι η τεχνητή νοημοσύνη και ποια τα εγγενή χαρακτηριστικά της που έρχονται σε αντίθεση με την έννοια της διαφάνειας.
Στο Κεφάλαιο 2 επιχειρείται η διερεύνηση της έννοιας της διαφάνειας εν γένει, ως μία θεμελιώδης αρχή που συνδέεται με τις αξίες του κράτους δικαίου και της δημοκρατίας, αλλά και ειδικότερα, ως αρχή της σύννομης και θεμιτής επεξεργασίας προσωπικών δεδομένων. Στο Κεφάλαιο αυτό τίθεται και ο βασικός προβληματισμός που αποτέλεσε το ερέθισμα για την εκπόνηση της παρούσας μελέτης: Είναι ο ΓΚΠΔ “ανθεκτικός” στην Τεχνητή Νοημοσύνη; (Is the GDPR “Artificial Intelligence - Proof”?). Με άλλα λόγια η αρχή της διαφάνειας που θεμελιώνεται στο άρθρο 5 του ΓΚΠΔ μπορεί να εφαρμοστεί και στα συστήματα τεχνητής νοημοσύνης, λαμβάνοντας υπόψη ότι αυτά χαρακτηρίζονται από την έντονη διεπαφή τους με τα προσωπικά δεδομένα;
Σελ. 6
Στο Κεφάλαιο 3 η έρευνα επικεντρώνεται σε ένα άλλο ερώτημα που απασχόλησε τη θεωρία τα τελευταία χρόνια, εάν δηλαδή από τις διατάξεις του ΓΚΠΔ για τη διαφάνεια μπορεί να συναχθεί ένα δικαίωμα στην επεξήγηση των αποφάσεων που λαμβάνονται με αυτοματοποιημένα μέσα. Για τον σκοπό αυτό δίνεται έμφαση στην ερμηνεία του άρθρου 22 ΓΚΠΔ και αναλύονται οι προϋποθέσεις εφαρμογής της διάταξης, οι περιορισμοί της, καθώς και η σύνδεσή της με τις άλλες διατάξεις του ΓΚΠΔ. Η απάντηση στο ερώτημα αυτό είναι πολύ σημαντική καθώς, όπως αναλύεται, μπορεί να έχει άμεση επίπτωση και στα συστήματα τεχνητής νοημοσύνης τα οποία εξ ορισμού λειτουργούν με αυτοματοποιημένο τρόπο.
Στο Κεφάλαιο 4 εξετάζεται η πρόσφατη νομολογία του Δικαστηρίου της Ευρωπαϊκής Ένωσης, αλλά και σημαντικές αποφάσεις εθνικών δικαστηρίων, οι οποίες έχουν ασχοληθεί με το ζήτημα της διαφάνειας και της προστασίας του ατόμου από αυτοματοποιημένη λήψη αποφάσεων. Ιδιαίτερη έμφαση δίδεται στις εμβληματικές υποθέσεις Schufa και Dun & Bradstreet μέσα από τις οποίες αναδύεται δυναμικά και διαπλάθεται το δικαίωμα στην επεξήγηση των αποφάσεων που λαμβάνονται με αυτοματοποιημένα μέσα. Εξαιρετικό ενδιαφέρον παρουσιάζει και η οριοθέτηση και ο περιορισμός του δικαιώματος της επεξήγησης σε σχέση με δικαιώματα τρίτων, τα οποία απολαμβάνουν ομοίως προστασίας, όπως δικαιώματα πνευματική ιδιοκτησίας, εμπορικό απόρρητο κοκ.
Στο Κεφάλαιο 5 γίνεται μία εξελικτική παρουσίαση και εννοιολογικός διαχωρισμός των δυο εννοιών, της διαφάνειας και της επεξηγησιμότητας, καθώς και άλλων συναφών εννοιών, όπως αυτές αποτυπώνονται στα κανονιστικά κείμενα που υιοθετήθηκαν το χρονικό διάστημα που μεσολάβησε μεταξύ του ΓΚΠΔ και του ΑΙΑ, τόσο στην ευρωπαϊκή όσο και σε άλλες διεθνείς έννομες τάξεις. Ο ερευνητικός σκοπός εδώ δεν είναι μόνο να διερευνηθεί εάν πρόκειται για δυο στενά συνδεδεμένες, αλλά διακριτές έννοιες. Σκοπός του Κεφαλαίου είναι να αναδείξει ταυτόχρονα τις επιρροές που οδήγησαν σταδιακά στην υιοθέτηση ειδικής ρύθμισης για την τεχνητή νοημοσύνη.
Στο Κεφάλαιο 6 αναλύεται η αρχή της διαφάνειας υπό το πρίσμα πλέον του ΑΙΑ και εξετάζονται ενδελεχώς οι υποχρεώσεις διαφάνειας που επιβάλλονται ανά κατηγορία συστήματος τεχνητής νοημοσύνης. Έμφαση δίνεται στη σχέση του δικαιώματος στην επεξήγηση που θεμελιώνει το άρθρο 86 ΑΙΑ με το αντίστοιχο δικαίωμα που απορρέει από τον ΓΚΠΔ. Η ειδική δυσκολία και πρόκληση στη συγγραφή του εν λόγω κεφαλαίου είναι το εξαιρετικά πρόσφατο της ρύθμισης και η σταδιακή θέση σε εφαρμογή του κανονισμού που συνεπάγεται τη διαρκή αναθεώρηση της παρούσας.
Στο Κεφάλαιο 7, η συζήτηση μετατοπίζεται στις εκτιμήσεις αντικτύπου ως εργαλεία συμμόρφωσης, ελέγχου και ενίσχυσης της διαφάνειας. Παρουσιάζονται οι κανονιστικές απαιτήσεις για εκτιμήσεις αντικτύπου, όπως αυτές απορρέουν μέσα από τα δυο κανονιστικά πλαίσια σε συνδυασμό με τη ρύθμιση του εθνικού νομοθέτη στον Ν. 4961/2022. Η σύγκριση των διαφορετικών κανονιστικών απαιτήσεων προσφέρει πολύ χρήσιμα συμπεράσματα τόσο για την αντιμετώπιση του ζητήματος της διαφά-
Σελ. 7
νειας, όσο και εν γένει για τη φύση και τη σχέση σύγκρουσης/ αλληλοεπικάλυψης των απαιτήσεών αυτών μεταξύ τους.
Στο Κεφάλαιο 8 εξετάζονται οι σημαντικότερες μεθοδολογίες και μοντέλα που έχουν αναπτυχθεί μέχρι σήμερα για την εκτίμηση αντικτύπου για συστήματα τεχνητής νοημοσύνης. Η επιλογή των μεθοδολογιών βασίστηκε σε διάφορα κριτήρια, όπως α) το χρονικό, δηλ. μεθοδολογίες που αναπτύχθηκαν πριν και μετά τη θέση σε εφαρμογή του ΑΙΑ, β) η επιδραστικότητα, δηλαδή μεθοδολογίες που έχουν ήδη μεγάλη απήχηση στην ακαδημαϊκή και όχι μόνο κοινότητα, γ) η διαφορετικότητα, δηλ. μεθοδολογίες που έχουν αναπτυχθεί στο πλαίσιο διαφορετικών κανονιστικών απαιτήσεων και σε διαφορετικές δικαιοδοσίες. Στο Κεφάλαιο, λοιπόν, αυτό επιχειρείται η αποκωδικοποίηση των βασικών τους χαρακτηριστικών και η καταγραφή των απαιτήσεων που θέτουν ως προς την αντιμετώπιση του ζητήματος της διαφάνειας. Στόχος του ερευνητή είναι να καταγράψει σε πρακτικό επίπεδο τον βαθμό εμβάθυνσης αυτών των μοντέλων και τις απαιτήσεις/ερωτήσεις που θέτουν σε σχέση με τη διαφάνεια και την επεξηγησιμότητα των συστημάτων τεχνητής νοημοσύνης.
Στο Κεφάλαιο 9 γίνεται συγκριτική αξιολόγηση των ανωτέρω μοντέλων, εστιάζοντας αφενός στα μεθοδολογικά ζητήματα που ανακύπτουν σε σχέση με τον σχεδιασμό εργαλείων αλγοριθμικής εκτίμησης αντικτύπου και αφετέρου στον εντοπισμό κοινών σημείων αναφοράς και στην ανάδειξη βέλτιστων πρακτικών που δύναται να αποτελέσουν τη βάση ενός μηχανισμού εκτίμησης αντικτύπου για συστήματα τεχνητής νοημοσύνης που θα σέβεται και θα υπηρετεί την αρχή της διαφάνειας.
Τέλος, το Κεφάλαιο 10 συνοψίζει τα συμπεράσματα της παρούσας και προτείνει κατευθύνσεις για μελλοντική επιστημονική μελέτη.
Σελ. 9
ΚΕΦΑΛΑΙΟ 1
Η τεχνολογική διάσταση
της Τεχνητής Νοημοσύνης
1.1. H έννοια της τεχνητής νοημοσύνης
Η έννοια της τεχνητής νοημοσύνης εισήχθη για πρώτη φορά τη δεκαετία του 1950, όταν επιστήμονες στον κλάδο των υπολογιστών άρχισαν να εξερευνούν την ιδέα δημιουργίας μηχανών που θα μπορούσαν να προσομοιώσουν την ανθρώπινη νοημοσύνη. Το 1955, το Συνέδριο του Ντάρτμουθ σηματοδότησε τη γέννηση της τεχνητής νοημοσύνης ως επίσημο πεδίο μελέτης και επινοήθηκε ο όρος «τεχνητή νοημοσύνη» από τον καθηγητή McCarthy. Ο McCarthy όρισε την τεχνητή νοημοσύνη ως «η επιστήμη και ο σχεδιασμός ευφυών μηχανών», ενώ λίγο νωρίτερα, το 1950, ο Alan Turing, μέσα από το περιβόητο «Test Turing» είχε αποδώσει την έννοια της «ευφυούς συμπεριφοράς».
Στη δεκαετία του 1960 άρχισαν να αναπτύσσονται οι πρώτες εφαρμογές που επεδείκνυαν μία τέτοια «ευφυή» συμπεριφορά και βασίζονταν σε μεθόδους αναπαράστασης της γνώσης με σύμβολα, σε λογικούς κανόνες και αλγορίθμους αναζήτησης για την επίλυση προβλημάτων. Αυτές οι εφαρμογές εντάσσονται σε αυτό που αποκαλούμε «συμβολική» (symbolic) ή «βασισμένη-στη-λογική» (logic-based) τεχνητή νοημοσύνη, η οποία κυριάρχησε στις πρώτες δεκαετίες της επιστήμης των υπο-
Σελ. 10
λογιστών. Ωστόσο, οι τεχνολογικοί περιορισμοί της εποχής σε συνδυασμό με την αδυναμία των συστημάτων να επιλύσουν πιο σύνθετα προβλήματα προκάλεσαν σκεπτικισμό σχετικά με τη σκοπιμότητα της ανάπτυξης ευφυών μηχανών, ο οποίος σταδιακά κατέληξε σε διακοπή της χρηματοδότησης των ερευνητικών προγραμμάτων. Αυτή η περίοδος, γνωστή ως ο «χειμώνας της τεχνητής νοημοσύνης», διήρκεσε μέχρι τη δεκαετία του 1980.
Στη δεκαετία του 1980 αναζωπυρώθηκε το ενδιαφέρον για την τεχνητή νοημοσύνη, με την ανάπτυξη των «έμπειρων συστημάτων» (expert systems). Αυτά τα συστήματα βασίζονταν σε μεγάλες βάσεις δεδομένων και σχεδιάστηκαν προκειμένου να αναπαραστήσουν τις διαδικασίες λήψης αποφάσεων των ειδικών (experts) σε συγκεκριμένους επιστημονικούς τομείς. Ωστόσο, προβλήματα και περιορισμοί αυτών των συστημάτων, όπως η εξαιρετικά δυσχερής διαδικασία απόκτησης γνώσης (knowledge acquisition) από ειδικούς, η διαχείριση τεράστιων και πολύπλοκων βάσεων δεδομένων, καθώς και η αδυναμία λειτουργίας αυτών των προγραμμάτων έξω από το στενό πεδίο για το οποίο είχαν σχεδιαστεί, έγιναν σύντομα εμφανή. Μέχρι τα τέλη της δεκαετίας του 1980 σημειώθηκε εκ νέου κάμψη - ο δεύτερος «χειμώνας της τεχνητή νοημοσύνης» - καθώς οι προσδοκίες διαψεύστηκαν και οι επενδύσεις μειώθηκαν δραστικά.
Οι περιορισμοί αυτοί οδήγησαν τους ερευνητές, από τη δεκαετία του 1980 και έπειτα, να στραφούν σε νέες προσεγγίσεις που θα επέτρεπαν στους υπολογιστές να μαθαίνουν από τα δεδομένα και την εμπειρία τους, αντί να βασίζονται αποκλειστικά σε προκαθορισμένους κανόνες. Αυτός ο στόχος επιτυγχάνεται μέσα από τη «μηχανική μάθηση» (machine learning). Αντί ο προγραμματιστής να καθορίζει εκ των προτέρων κάθε κανόνα συμπεριφοράς, το σύστημα δημιουργεί μοτίβα από τα παραδείγ-
Σελ. 11
ματα που του παρέχονται και προσαρμόζει τις ενέργειές του αναλόγως. Κατά τις δεκαετίες 1990 και 2000, η μηχανική μάθηση εδραιώθηκε σταδιακά ως το κυρίαρχο πρότυπο στην έρευνα της τεχνητής νοημοσύνης. Η συνεχής αύξηση της υπολογιστικής ισχύος και η διαθεσιμότητα μεγάλων συνόλων δεδομένων συνέβαλαν στην επιτυχία των μεθόδων αυτών. Εφαρμογές όπως η αναγνώριση ομιλίας και η ανάλυση εικόνων/βίντεο βασίστηκαν σε τεχνικές μηχανικής μάθησης και πέτυχαν αποτελέσματα που δεν θα μπορούσαν να επιτευχθούν με τις παραδοσιακές μεθόδους που βασίζονται σε κανόνες.
Τα τελευταία χρόνια οι εξελίξεις στον χώρο της τεχνητής νοημοσύνης είναι ραγδαίες και σηματοδοτούν την εποχή της «βαθιάς μάθησης» (deep learning). Η βαθιά μάθηση είναι ένα υποσύνολο της μηχανικής μάθησης που χρησιμοποιεί πολυεπίπεδες αρχιτεκτονικές (νευρωνικά δίκτυα) για μάθηση αναπαραστάσεων (representation learning). Αυτή η αρχιτεκτονική σε συνδυασμό με τους διαθέσιμους τεράστιους όγκους δεδομένων και την αύξηση στην υπολογιστική ισχύ επέτρεψε άλματα προόδου στις δυνατότητες των συστημάτων τεχνητής νοημοσύνης και πλέον η βαθιά μάθηση έχει καταστεί η κυρίαρχη τεχνολογική τάση. Επιτεύγματα όπως το πρόγραμμα AlphaGo της DeepMind που κατόρθωσε να νικήσει τον πρωταθλητή του παιχνι-
Σελ. 12
διού Go ή τα σύγχρονα μεγάλα γλωσσικά μοντέλα τύπου GPT που μπορούν να παράγουν συνεκτικό κείμενο και να ανταποκρίνονται σε περίπλοκα ερωτήματα, καταδεικνύουν ότι η τεχνητή νοημοσύνη έχει καταφέρει να φτάσει σε ένα επίπεδο που μπορεί να συγκριθεί με ή/και να υπερβεί ανθρώπινες επιδόσεις, χωρίς ωστόσο να έχει επιτύχει το επίπεδο μιας «γενικής» τεχνητής νοημοσύνης.
Παρατηρώντας την εξελικτική πορεία της τεχνητής νοημοσύνης, αντιλαμβάνεται κανείς ότι εννοιολογικά δεν προσδιορίζει μία συγκεκριμένη μόνο τεχνολογία, αλλά καλύπτει έναν ολόκληρο κλάδο της επιστήμης υπολογιστών που ασχολείται με τον σχεδιασμό και την υλοποίηση συστημάτων ικανών να μιμούνται γνωστικές λειτουργίες του ανθρώπου, όπως η μάθηση, η προσαρμοστικότητα, ο προγραμματισμός, η κατανόηση του περιβάλλοντος, η εξαγωγή συμπερασμάτων και η επίλυση προβλημάτων.
1.2. Νομοθετικοί ορισμοί της τεχνητής νοημοσύνης
Μέχρι και την ψήφιση του Κανονισμού για την Τεχνητή Νοημοσύνη στην επιστημονική κοινότητα είχαν εμφανιστεί δεκάδες ορισμοί της τεχνητής νοημοσύνης, απόρροια του γεγονότος ότι κάθε επιστημονικός κλάδος προσέγγιζε την τεχνητή νοημοσύνη από διαφορετική οπτική γωνία και ανεδείκνυε τα συγκεκριμένα χαρακτηριστικά της που ενδιαφέρουν τον εκάστοτε κλάδο.
Σε ευρωπαϊκό θεσμικό επίπεδο, μόλις το 2018 εμφανίστηκε ρητός ορισμός της τεχνητής νοημοσύνης σε έγγραφο της Ευρωπαϊκής Επιτροπής και δη στην Ανακοίνωσή της Επιτροπής προς το Ευρωπαϊκό Κοινοβούλιο, το Ευρωπαϊκό Συμβούλιο, το Συμβούλιο, την Ευρωπαϊκή Οικονομική και Κοινωνική Επιτροπή και την Επιτροπή των Περιφερειών σχετικά με την Τεχνητή Νοημοσύνη για την Ευρώπη. Σύμφωνα με αυτόν, ο όρος τεχνητή νοημοσύνη αναφέρεται στα «συστήματα που επιδεικνύουν έξυπνη συμπεριφορά, αναλύοντας το περιβάλλον και εκτελώντας ενέργειες, με κάποιο βαθμό αυτονομίας, για να επιτύχουν συγκεκριμένους στόχους». Ο ορισμός αυτός ήταν ένας από τους πιο συχνά εμφανιζόμενους ορισμούς μέχρι και την ψήφιση του Κανονισμού
Σελ. 13
για την Τεχνητή Νοημοσύνη. Το 2018 η Ομάδα Εμπειρογνωμόνων Υψηλού Επιπέδου για την Τεχνητή Νοημοσύνη της Ε.Ε. πρότεινε την τροποποίηση του ορισμού ως εξής: “συστήματα που έχουν σχεδιαστεί από ανθρώπους που, δεδομένου ενός πολύπλοκου στόχου, ενεργούν στον φυσικό ή ψηφιακό κόσμο, αντιλαμβανόμενα το περιβάλλον τους μέσω της ερμηνείας των συλλεχθέντων δομημένων ή μη δομημένων δεδομένων, της αιτιολόγησης της γνώσης που απορρέει από αυτά τα δεδομένα και της λήψης απόφασης για τις καλύτερες δυνατόν ενέργειες (σύμφωνα με προκαθορισμένες παραμέτρους) για την επίτευξη του συγκεκριμένου στόχου. Τα συστήματα τεχνητής νοημοσύνης μπορούν επίσης να σχεδιαστούν για να μάθουν να προσαρμόζουν τη συμπεριφορά τους αναλύοντας το πώς επηρεάζεται το περιβάλλον από τις προηγούμενες ενέργειές τους”.
Το 2019 ο Οργανισμός Οικονομικής Συνεργασίας και Ανάπτυξης (ΟΟΣΑ) στη Σύσταση που εξέδωσε για την Τεχνητή Νοημοσύνη περιέλαβε και τον ακόλουθο ορισμό, ο οποίος διαφοροποιείται σε σχέση με τους προηγούμενους: «σύστημα τεχνητής νοημοσύνης είναι ένα μηχανικό σύστημα που μπορεί, για ένα καθορισμένο σύνολο ανθρώπινων στόχων, να κάνει προβλέψεις, συστάσεις ή να λαμβάνει αποφάσεις που επηρεάζουν πραγματικά ή εικονικά περιβάλλοντα. Τα συστήματα τεχνητής νοημοσύνης έχουν σχεδιαστεί ώστε να λειτουργούν με διαφορετικά επίπεδα αυτονομίας.» Το 2024 ο ΟΟΣΑ προέβη σε τροποποίηση του ορισμού ως ακολούθως: «Ένα σύστημα τεχνητής νοημοσύνης είναι ένα μηχανικό σύστημα το οποίο, για ρητούς ή άρρητους στόχους, συμπεραίνει από τα δεδομένα εισόδου που λαμβάνει πώς να παράγει αποτελέσματα όπως προβλέψεις, περιεχόμενο, συστάσεις ή αποφάσεις που μπορούν να επηρεάσουν φυσικά ή εικονικά περιβάλλοντα. Τα διάφορα συστήματα τεχνητής νοημοσύνης διαφέρουν ως προς το επίπεδο αυτονομίας και προσαρμοστικότητάς τους που εμφανίζουν μετά την ανάπτυξή τους.» Ο νέος ορισμός απομακρύνεται από την προηγούμενη αναφορά σε «καθορισμένους στόχους», ενσωματώνοντας πλέον τους «ρητούς ή άρρητους στόχους», ώστε να αναδείξει τη δυνατότητα αυτόνομης μάθησης και λειτουργίας αυτών των συστημάτων χωρίς να έχει εκφραστεί απαραίτητα σαφής ανθρώπινη
Σελ. 14
πρόθεση. Επιπλέον, δίνεται έμφαση στη διαδικασία συμπερασμού (inference) από δεδομένα εισόδου, στοιχείο που αντικατοπτρίζει τον πυρήνα της λειτουργίας συστημάτων μηχανικής. Τον ίδιο ακριβώς ορισμό ακολούθησε και η Σύμβαση-Πλαίσιο του Συμβουλίου της Ευρώπης για την Τεχνητή Νοημοσύνη και τα Ανθρώπινα Δικαιώματα, τη Δημοκρατία και το Κράτος Δικαίου.
Η πρόταση αυτή αποτέλεσε τη βάση και για τον Κανονισμό για την Τεχνητή Νοημοσύνη, στο άρθρο 3 του οποίου, ορίζεται πλέον ως «σύστημα ΤΝ» κάθε «μηχανικό σύστημα που έχει σχεδιαστεί για να λειτουργεί με διαφορετικά επίπεδα αυτονομίας και μπορεί να παρουσιάζει προσαρμοστικότητα μετά την εφαρμογή του και το οποίο, για ρητούς ή σιωπηρούς στόχους, συνάγει, από τα στοιχεία εισόδου που λαμβάνει, πώς να παράγει στοιχεία εξόδου, όπως προβλέψεις, περιεχόμενο, συστάσεις ή αποφάσεις που μπορούν να επηρεάσουν υλικά ή εικονικά περιβάλλοντα.»
Αυτός ο ορισμός βασίζεται σε επτά κριτήρια, τα οποία η Ευρωπαϊκή Επιτροπή αναλύει ξεχωριστά στις Κατευθυντήριες Γραμμές της σχετικά με τον ορισμό των συστημάτων τεχνητής νοημοσύνης που καθορίζεται από τον Κανονισμό (ΕΕ) 2024/1689 (AI Act). Ειδικότερα, ένα σύστημα για να θεωρηθεί ως σύστημα τεχνητής νοημοσύνης θα πρέπει να έχει τις ακόλουθες ιδιότητες:
i. Σύστημα βασισμένο σε μηχανές: Το κριτήριο αυτό αποκλείει αμιγώς ανθρώπινες ή μηχανικές διαδικασίες χωρίς τη συμμετοχή υπολογιστικών συστημάτων. Ένα σύστημα τεχνητής νοημοσύνης πρέπει να βασίζεται σε ενσωματωμένα στοιχεία υλισμικού και λογισμικού που επιτρέπουν υπολογιστικές διεργασίες.
ii. Αυτονομία: Ένα σύστημα τεχνητής νοημοσύνης πρέπει να λειτουργεί με ένα ορισμένο επίπεδο αυτονομίας, ιδίως σε σχέση με την ικανότητα του συστήματος εξαγωγής συμπερασμάτων. Σύμφωνα με την Επιτροπή, τα συστήματα που λειτουργούν αποκλειστικά με ανθρώπινη παρέμβαση και έλεγχο (είτε άμεσα είτε έμμεσα) εξαιρούνται από τον ορισμό και, κατά συνέπεια, από το πεδίο εφαρμογής του ΑΙΑ.
Σελ. 15
iii. Προσαρμοστικότητα: Το μοναδικό κριτήριο που δεν είναι υποχρεωτικό, καθώς το άρθρο 3(1) αναφέρει ότι τα συστήματα ΤΝ «ενδέχεται» να επιδεικνύουν προσαρμοστικότητα. Η προσαρμοστικότητα αναφέρεται στα συστήματα που έχουν σχεδιαστεί ώστε να εξελίσσονται μετά την ανάπτυξή τους, μέσω της αυτομάθησης από νέα δεδομένα.
iv. Ρητοί ή άρρητοι στόχοι: Τα συστήματα τεχνητής νοημοσύνης πρέπει να αναπτύσσονται με στόχους που καθορίζονται ρητά ή άρρητα. Οι ρητοί στόχοι είναι εκείνοι που έχουν κωδικοποιηθεί άμεσα από τον προγραμματιστή, ενώ οι άρρητοι μπορούν να συναχθούν από τη συμπεριφορά ή τις βασικές παραδοχές του συστήματος.
v. Ικανότητα εξαγωγής συμπερασμάτων: Αποτελεί το πιο σημαντικό κριτήριο, καθώς είναι αυτό που διαφοροποιεί τα συστήματα τεχνητής νοημοσύνης από παραδοσιακά συστήματα λογισμικού ή προγραμματιστικές προσεγγίσεις που βασίζονται αποκλειστικά σε κανόνες που καθορίζονται από φυσικά πρόσωπα για την αυτόματη εκτέλεση λειτουργιών. Η ικανότητα του συστήματος να «συμπεραίνει» από τα δεδομένα εισόδου και να δημιουργεί αποτελέσματα, όπως προβλέψεις, περιεχόμενο, προτάσεις ή αποφάσεις, χωρίς απλώς να ακολουθεί κάποια προκαθορισμένα βήματα αποτελεί σημαντικό κριτήριο υπαγωγής ενός συστήματος στο πεδίο εφαρμογής του ΑΙΑ..
vi. Δημιουργία αποτελεσμάτων που μπορούν να επηρεάσουν το φυσικό ή εικονικό περιβάλλον: Εδώ περιλαμβάνονται οι προβλέψεις, οι συστάσεις, η δημιουργία περιεχομένου και οι αυτοματοποιημένες αποφάσεις.
vii. Αλληλεπίδραση με το περιβάλλον: Τα συστήματα τεχνητής νοημοσύνης δεν είναι «παθητικά» και μπορούν να επηρεάζουν είτε φυσικά αντικείμενα (π.χ. ρομποτικός βραχίονας) είτε εικονικά περιβάλλοντα.
Εκ πρώτης ο ορισμός αυτός αφήνει έξω από το πεδίο εφαρμογής συστήματα μαθηματικής βελτιστοποίησης που απλώς βελτιώνουν την απόδοση προϋπαρχόντων μοντέλων χωρίς «νοημοσύνη» στην προσαρμογή τους, συστήματα που φιλτράρουν ή ταξινομούν δεδομένα χωρίς να μαθαίνουν από αυτά, κλασικές ευρετικές μεθόδους ή απλά συστήματα πρόβλεψης. Εντούτοις, ο διαχωρισμός δεν θα είναι πάντα εύκολος και σε αυτό συνηγορεί και η τεχνική πολυπλοκότητα των εμπλεκόμενων συστημάτων, όπως αναλύεται αμέσως παρακάτω.
Σελ. 16
1.3. To «μαύρο κουτί»
Στην εποχή των Μεγάλων Δεδομένων (“Big Data”) o όγκος, η ταχύτητα και η ποικιλομορφία των υπό επεξεργασία δεδομένων, αλλά και οι τεχνικές και οι μεθοδολογίες που χρησιμοποιούνται, φαίνεται να καθιστούν πρακτικά αδύνατη την καταγραφή της πορείας λήψης μίας απόφασης ή τη διενέργεια μίας πρόβλεψης για το πιθανό αποτέλεσμα αυτής. Tα συστήματα τεχνητής νοημοσύνης αποκαλούνται συχνά και “μαύρα κουτιά”, μια μεταφορά που παραπέμπει στα κλειστά συστήματα παρακολούθησης των αεροσκαφών - τα οποία παρακολουθούν και καταγράφουν ταυτόχρονα περισσότερους από 1.000 δείκτες που σχετίζονται με την λειτουργία του αεροσκάφους - και χαρακτηρίζει ένα σύστημα του οποίου οι εσωτερικές λειτουργίες είναι εξαιρετικά πολύπλοκες, ούτως ώστε να καταδειχθεί ότι είναι δύσκολο έως και αδύνατο να κατανοηθεί ο εσωτερικός τρόπος λειτουργίας και η λογική λήψης αποφάσεων που βασίζεται σε αλγόριθμους και στατιστικούς συσχετισμούς δεδομένων. Ο βασικός λόγος είναι ότι εκ του σχεδιασμού τους τα πληροφοριακά συστήματα (αυτά που σχετίζονται με την τεχνητή νοημοσύνη) αντιδρούν συνεχώς και με διαφορετικό τρόπο στα νέα δεδομένα που λαμβάνουν, εντοπίζουν ομοιότητες και επαναλαμβανόμενα μοτίβα, μαθαίνουν να προσαρμόζουν τις απαιτήσεις τους και να διαμορφώνουν διαρκώς μεταβαλλόμενα αλγοριθμικά μοντέλα χωρίς ανθρώπινη παρέμβαση. Ακόμα μεγαλύτερες δυσκολίες κατανόησης εμφανίζονται στις τεχνικές βαθιάς μάθησης, οι οποίες τροφοδοτούν τα συστήματα με σύνολα εκπαιδευτικών δεδομένων, που περιέχουν μοτίβα ή ομοιότητες που βοηθούν τη διαδικασία αυτό-μάθησης των αλγορίθμων. Με αυτόν τον τρόπο παράγεται ένα μοντέλο που μπορεί να αναγνωρίζει παρόμοια μοτίβα όταν επεξεργάζεται νέα δεδομένα. Η δυσκολία χαρτογράφησης και κατανόησης αυτής της διαδικασίας χαρακτηρίζεται ως «ισοδύναμο της νευροεπιστήμης για την κατανόηση των δικτύων μέσα στον ανθρώπινο εγκέφαλο». Ναι μεν γνωρίζουμε τι πληροφορία μπαίνει στο σύστημα και τι πληροφορία εξέρχεται από αυτό, αλλά δεν μπορούμε να αποδείξουμε γιατί και πώς φτάσαμε σ’ ένα αποτέλεσμα ή / και ποια χαρακτηριστικά ή ποιοι συνδυασμοί δεδο-
Σελ. 17
μένων ήταν κρίσιμοι για τη λήψη του. Ένα μοντέλο θα καταλήξει συχνά σε ένα συμπέρασμα χωρίς καμία εξήγηση.
Το τεχνολογικό περιβάλλον, λοιπόν, αποτελεί τροχοπέδη στην προσπάθεια καταγραφής και επεξήγησης της λογικής λήψης μιας απόφασης που βασίζεται στην τεχνητή νοημοσύνη. Οι εγγενείς δυσχέρειες, ιδίως όσον αφορά στα λεγόμενα μη επιτηρούμενα μοντέλα (“unsupervised model”), περιλαμβάνουν την πολυπλοκότητα που απορρέει από τον όγκο των δεδομένων, τη δομικότητα (“modularity”) και τη δυναμική φύση των αλγορίθμων. Η αποσυσχετικοποίηση (“decontextualization”), όπου αλγοριθμικά μοντέλα που χρησιμοποιήθηκαν αρχικά για έναν σκοπό στη συνέχεια επαναχρησιμοποιούνται σε διαφορετικό πλαίσιο και για διαφορετικό σκοπό, είναι επίσης ένα εγγενές χαρακτηριστικό της τεχνητής νοημοσύνης που δυσχεραίνει τη διαδικασία κατανόησης του τρόπου λειτουργίας της και εγείρει και σημαντικά νομικά ζητήματα.
Ωστόσο, όπως αναφέραμε παραπάνω, η τεχνητή νοημοσύνη δεν είναι μια μονοδιάστατη έννοια, αλλά περιλαμβάνει ένα σύνολο τεχνολογιών, οι οποίες κυμαίνονται από παραδοσιακά μοντέλα γραμμικής παλινδρόμησης (”traditional linear regression models”) και δέντρα αποφάσεων (“decision trees”), έως διαφορετικούς τύπους νευ-
Σελ. 18
ρωνικών δικτύων. Συνεπώς, ο βαθμός πολυπλοκότητας κάθε τεχνολογίας διαφέρει και ως εκ τούτου η δυνατότητα να εντοπισθεί ένας εκ των υστέρων αιτιώδης σύνδεσμος μεταξύ της εισόδου και της εξόδου μιας συγκεκριμένης πληροφορίας σ’ ένα σύστημα (με άλλα λόγια πώς ένα σύστημα κατέληξε σε ένα αποτέλεσμα) διαφέρει σημαντικά μεταξύ αυτών των τεχνολογιών. Οι αλγόριθμοι μηχανικής μάθησης, όπως τα δέντρα αποφάσεων, οι κατηγοριοποιητές Bayesian (“Bayesian classifiers”) και τα προσθετικά μοντέλα (“additive models”) φαίνεται ότι είναι πιο πιθανό να δημιουργήσουν ερμηνεύσιμα μοντέλα, υπό το πρίσμα ότι κάθε συστατικό του μοντέλου (π.χ. βάρος ενός χαρακτηριστικού σε ένα γραμμικό μοντέλο, μια διαδρομή σε ένα δέντρο αποφάσεων, ή ένας συγκεκριμένος κανόνας) και ο ρόλος του σε ολόκληρη τη διαδικασία δύναται να εντοπισθεί με μεγαλύτερη ευχέρεια. Αυτοί οι αλγόριθμοι χρησιμοποιούν έναν λογικά περιορισμένο αριθμό εσωτερικών στοιχείων (δηλαδή διαδρομές, κανόνες ή δυνατότητες), τα οποία μπορούν να παρέχουν ιχνηλασιμότητα και διαφάνεια στον τρόπο χρήσης τους. Αντίθετα, οι αλγόριθμοι βαθιάς μάθησης (“deep learning algorithms”), όπως αυτοί που χρησιμοποιούνται για την ανάπτυξη εφαρμογών, ενδεικτικά για την αναγνώριση ομιλίας, την αναγνώριση εικόνας και την επεξεργασία φυσικής γλώσσας, εφαρμόζουν πολύπλοκες συνδέσεις μεταξύ των διαφόρων επιπέδων του δικτύου και δημιουργούν μη γραμμικές συσχετίσεις μεταξύ της εισερχόμενης και εξερχόμενης πληροφορίας. Σε τέτοιες περιπτώσεις, προκύπτει ότι όσες περισσότερες παραμέτρους - σε μια μη γραμμική σύνδεση - ένα σύστημα λαμβάνει υπόψη κατά τη διαδικασία λήψης αποφάσεων, τόσο λιγότερο κατανοητό για τον άνθρωπο γίνεται το μοντέλο.
Εκτός από τους τεχνολογικούς περιορισμούς που απορρέουν από τη δυναμική και απρόβλεπτη φύση των αλγορίθμων, δεν πρέπει επίσης να αγνοούμε τα νομικά και κανονιστικά εμπόδια που τίθενται στην εφαρμογή της αρχής της διαφάνειας στην αλγοριθμική διεργασία και απόφαση. Η απαίτηση για διαφάνεια μπορεί να έρχεται σε σύγκρουση με δικαιώματα πνευματικής ιδιοκτησίας ή / και το εμπορικό απόρρητο, τα οποία με τη σειρά τους αποτελούν ένα ισχυρό επιχείρημα για τον περιορισμό της πρόσβασης στην πληροφορία. Ζητήματα ανταγωνισμού και ασφάλειας πληροφοριακών συστημάτων θα μπορούσαν, επίσης, να δικαιολογήσουν περιορισμούς
Σελ. 19
στην πρόσβαση σε πληροφορίες που αφορούν σε αλγόριθμους. Οι επιχειρήσεις, ως γνωστόν, είναι απρόθυμες να παράσχουν πληροφορίες που αφορούν σε εσωτερικές διεργασίες, καθώς αυτές ενδέχεται ν’ αποτελούν ένα ανταγωνιστικό πλεονέκτημα που δεν μπορεί να διαμοιραστεί. Στο ίδιο πλαίσιο η δημοσίευση πληροφοριών που σχετίζονται με εσωτερικά συστήματα και δομές ενδέχεται να δημιουργήσει κινδύνους από πλευράς ασφάλειας πληροφοριακών συστημάτων και να οδηγήσει σε βελτιωμένες κυβερνοεπιθέσεις. Τα κρατικά απόρρητα και η επίκληση του δημοσίου συμφέροντος ή της δημόσιας ασφάλειας μπορεί να αποτελέσουν έναν άλλο νομικό λόγο περιορισμού του δικαιώματος στην πληροφόρηση, καθώς από τη φύση τους πρόκειται για πληροφορίες που δεν προορίζονται για διαμοιρασμό. Τέλος, το διαρκώς μεταβαλλόμενο ρυθμιστικό πλαίσιο ως προς την επιβολή υποχρεώσεων ενημέρωσης, πρόσβασης και επεξήγησης του τρόπου λειτουργίας των συστημάτων τεχνητής νοημοσύνης στις επιχειρήσεις και δη μέσω ενός συστήματος «αδειοδότησης», μπορεί να λειτουργήσει αποτρεπτικά και να αυξήσει δυσανάλογα τον χρόνο ανάπτυξης και εμπορικής διάθεσης ενός προϊόντος στην αγορά.
Είναι πολλοί, λοιπόν, οι παράγοντες που εμποδίζουν την εφαρμογή της διαφάνειας στην τεχνητή νοημοσύνη, η δε έλλειψη ουσιαστικής γνώσης για το τι πραγματικά συμβαίνει μέσα στο μαύρο κουτί και πώς λαμβάνονται οι σχετικές αποφάσεις, συνιστά μείζον θέμα και απαρχή κάθε νομικής συζήτησης για την τεχνητή νοημοσύνη. Όπως αναφέρθηκε και προηγουμένως, η τεχνητή νοημοσύνη έχει μετακινηθεί από το ερευνητικό πεδίο και τα εργαστήρια για να γίνει μέρος της καθημερινότητάς μας, η οποία επηρεάζεται όλο και περισσότερο από αποφάσεις που λαμβάνονται επί τη βάσει ενός αλγορίθμου. Τα αλγοριθμικά συστήματα, όταν χρησιμοποιούνται κατάλληλα, σύμφωνα με συγκεκριμένα πρότυπα και δικλείδες ασφαλείας και κατόπιν αξιολόγησης των επιπτώσεών τους στη ζωή των ανθρώ-
Σελ. 20
πων, μπορεί να μεγιστοποιήσουν τα προσδοκώμενα οφέλη για το άτομο και την κοινωνία και να ενισχύσουν τα ανθρώπινα δικαιώματα και τις δημοκρατικές αρχές. Από την άλλη πλευρά, μία κακόβουλη ή εσφαλμένη χρήση συστημάτων τεχνητής νοημοσύνης μπορεί να επιφέρει ανεπιθύμητες και ενδεχομένως επικίνδυνες συνέπειες, από μία διακριτική μεταχείριση ατόμων έως την παραβίαση θεμελιωδών δικαιωμάτων. Ιδίως, όταν πρόκειται για συστήματα τα οποία συμβάλλουν στις αποφάσεις θεσμικών οργάνων (π.χ. δικαστήρια, αστυνομία), στον εργασιακό τομέα (είτε στο στάδιο της αξιολόγησης υποψήφιων εργαζομένων είτε για την εκτίμηση της παρεχόμενης εργασίας), στην αξιολόγηση της πιστοληπτικής ικανότητας υποψήφιων δανειοληπτών, στον τομέα της πρόγνωσης και αξιολόγησης της βέλτιστης ιατρικής θεραπείας, στην επιρροή του ατόμου μέσα από τα ψηφιακά κοινωνικά δίκτυα και στην ευρείας κλίμακας παρακολούθηση και αναγνώριση προσώπου οι κίνδυνοι για τα άτομα από τη χρήση συστημάτων τεχνητής νοημοσύνης είναι ιδιαιτέρως υψηλοί.
Συνοψίζοντας, η χρήση των νέων τεχνολογιών θέτει ουσιαστικά ζητήματα τήρησης νομικών και ηθικών αρχών, τα οποία δεν θα μπορέσουν να αντιμετωπισθούν, εάν προηγουμένως δεν έχει κατανοηθεί πλήρως ο τρόπος λειτουργίας αυτών των τεχνολογιών.









