Γράφτηκε από τον/την Romfea.gr. Παρασκευή, 21 Ιουνίου 2019

alliance

Ενόψει της Πρώτης Ετήσιας Συνάντησης για την Τεχνητή Νοημοσύνη που οργανώνει προσεχώς η Ευρωπαϊκή Επιτροπή, ο Πρωτοπρεσβύτερος Δρ. Γεώργιος Λέκκας, για λογαριασμό του Γραφείου της Αντιπροσωπείας της Εκκλησίας της Ελλάδος στην ΕΕ και προσωπικά του Διευθυντή του Πανιεροτάτου Μητροπολίτου Αχαΐας κου Αθανασίου, έκανε σήμερα, 21.6.2019, την ακόλουθη γραπτή παρέμβαση στον οικείο ιστότοπο της Ευρωπαϊκής Επιτροπής:

Του Πρωτοπρεσβύτερου Δρ. Γεωργίου Λέκκα | Συμβούλου στην Αντιπροσωπεία της Εκκλησίας της Ελλάδος στην ΕΕ

Η ΑΡΧΗ ΤΟΥ ΑΥΤΟΠΕΡΙΟΡΙΣΜΟΥ ΩΣ ΠΡΟΫΠΟΘΕΣΗ ΜΙΑΣ ΑΞΙΟΠΙΣΤΗΣ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ

Με δεδομένο τον χαρακτήρα των ευρωπαϊκών Ethics Guidelines for Trustworthy Al ως ενός “living document” και ενόψει της Πρώτης Ετήσιας Συνάντησης που οργανώνει προσεχώς η Ευρωπαϊκή Επιτροπή (26 Ιουνίου 2019), επιθυμώ να μοιρασθώ με όλους τους εμπλεκόμενους στο εγχείρημα αυτό τα ακόλουθα:

Η αξιοπιστία της Τεχνητής Νοημοσύνης, προκειμένου να καμφθούν οι αντιστάσεις των τοπικών κοινωνιών και να γίνουν οι σχετικές τεχνολογικές εξελίξεις μαζικά αποδεκτές, εξαρτάται, κατά την ταπεινή μου άποψη, και από τις παρακάτω προϋποθέσεις.

• Ενίσχυση των δημοκρατικών διαδικασιών και κυρίως πρόβλεψη κοινωνικών ελέγχων που θα εξασφαλίζει ότι οι εν λόγω εφαρμογές δεν θα αποβούν εις βάρος των πολλών αυξάνοντας τη δύναμη των λίγων.

• Οι εφαρμογές Τεχνητής Νοημοσύνης, αντί να εμπεδώνουν σε ευρωπαϊκό (και παγκόσμιο επίπεδο) την ομοιομορφία, οφείλουν να εκπαιδεύονται από τις τοπικές κοινωνικές συνήθειες και τα τοπικά ηθικά αντανακλαστικά ώστε να μην απορριφθούν από τις επιμέρους κοινωνίες ως ξένο και αδιάφορο σώμα.

Πρόκειται ασφαλώς για πρόταγμα που υπαγορεύει η ευρωπαϊκή αρχή της «ενότητας με διάσωση της διαφορετικότητας».

• Οι εν λόγω εφαρμογές δεν μπορεί να γίνουν θερμά αποδεκτές από τον μέσο ευρωπαίο όσο δεν ορίζεται αυστηρά ο βαθμός αυτονομίας που είμαστε πρόθυμοι να αποδεχθούμε για αυτής της φύσεως τα συστήματα.

Προκειμένου για την κοινωνική εμπέδωση της αξιοπιστίας αυτών των συστημάτων, είναι επείγουσα ανάγκη η ανάληψη πρωτοβουλίας της Ευρωπαϊκής Επιτροπής για τη δημιουργία νομικά δεσμευτικού πλαισίου που θα αποκλείει τη δημιουργία εξελιγμένων ανθρωπο-μηχανών ως περιπτώσεις κατάφωρης προσβολής της ανθρώπινης αξιοπρέπειας.

Τελικά, η ευρεία αποδοχή των συστημάτων Τεχνητής Νοημοσύνης εξαρτάται από τον αποκλεισμό της πιθανότητας να τεθεί μέσω αυτών σε μείζονα κίνδυνο η ιερότητα του ανθρώπου εξαιτίας της εργαλειοποίησης και της εξαντικειμενοποίησής του.

• Ο αμέσως προηγούμενος προβληματισμός επιβεβαιώνει την ανάγκη για μια ευρωπαϊκή πολιτική άμυνας θεμελιωμένης στο δικό μας πολιτιστικό και ηθικό σύστημα. Γιατί, αν η Ηνωμένες Πολιτείες της Αμερικής και η Κίνα προχωρήσουν στην κατασκευή ανθρωπο-μηχανών για αμυντικούς λόγους θα τους ακολουθήσουμε θυσιάζοντας τις αξίες του ευρωπαϊκού πολιτισμού ή οφείλουμε να εξελίξουμε ένα δικό μας ευρωπαϊκό σύστημα όχι με ανθρωπο-μηχανές αλλά εναντίον των ανθρωπο-μηχανών;

• Είναι, συνεπώς, φρόνιμο να αποκλείσουμε από τώρα τις μηχανές από την προστασία των ατομικών δικαιωμάτων που έχουν προβλεφθεί νομοθετικά αποκλειστικά για την προστασία του ανθρώπου, αφού η επιδίωξη ορισμένων κύκλων να επεκταθεί η προστασία των ατομικών δικαιωμάτων και στις μηχανές δημιουργεί κοινωνική σύγχυση ως προς τη διάκριση ανθρώπου και μηχανής με κίνδυνο την μαζική απόρριψη των μηχανών από το κοινωνικό σώμα.

• Εν κατακλείδι, ο βαθμός κοινωνικής αποδοχής των συστημάτων Τεχνητής Νοημοσύνης πιστεύουμε ότι θα εξαρτηθεί από τον βαθμό αυτοπεριορισμού όλων όσων εμπλέκονται στην επινόηση και τη θέση σε λειτουργία αυτών των συστημάτων. Αν ο 19ος αιώνας υπήρξε ο αιώνας της προόδου και ο 20ος αιώνας ο αιώνας της αυτονομίας, ο 21ος οφείλει να είναι ο αιώνας του αυτοπεριορισμού.

lekkas 1Ο σύγχρονος άνθρωπος μοιάζει να βρίσκεται για μια ακόμα φορά ενώπιον του Δέντρου της Γνώσης. Θα είμαστε αρκετά σοφοί, και υποψιασμένοι αυτή τη φορά, ώστε να μην κόψουμε παράκαιρα και τον τελευταίο καρπό του;

Αν δεν αυτοπεριοριστούμε σήμερα ηθικά και νομοθετικά, όσα από τα εγγόνια μας δεν θα είναι αύριο μηχανικά και βιολογικά «πειραγμένα» θα αποτελούν πολίτες δεύτερης κατηγορίας σε σχέση με τις εξελιγμένες ανθρωπο-μηχανές, ώστε να είναι μαθηματικά βέβαιο ότι η τύχη τους θα είναι παρόμοια με αυτή των ιθαγενών της Αυστραλίας και της Αμερικής.

Έχουμε το δικαίωμα να επιτρέψουμε ένα τέτοιο ενδεχόμενο για τα εγγόνια μας και τα παιδιά τους; Και όσο δεν αποκλείεται ένα τέτοιο ενδεχόμενο πώς μπορεί να ελπίζουμε πως οι νοήμονες ανθρώπινες κοινωνίες θα αγκαλιάσουν ανεπιφύλακτα τις νέες εφαρμογές;

Επειδή από το σεβασμό της αρχής του αυτοπεριορισμού θα εξαρτηθεί τελικά όχι μόνο η πρόοδος και η αυτονομία μας αλλά και η κοινωνική μας συνύπαρξη όπως και η διάσωση του πλανήτη μας, προτείνουμε την πρόσθεση και μάλιστα την πρόταξη της αρχής του αυτοπεριορισμού στις 4 βασικές αρχές του Ευρωπαϊκού Κώδικα Ηθικής για την Τεχνητή Νοημοσύνη κατά την πρώτη προσεχή αναθεώρησή του.

Βρυξέλλες, 20.6.2019.

ΠΑΤΗΣΤΕ ΕΔΩ ΓΙΑ ΤΟ ΠΡΟΓΡΑΜΜΑ ΤΗΣ ΕΤΗΣΙΑΣ ΣΥΝΑΝΤΗΣΗΣ

Εμφανίσεις: 189810
Γίνετε ενεργά η πηγή του Romfea.gr! Στείλτε ειδήσεις και φωτογραφίες που πιστεύετε πως ενδιαφέρουν τους αναγνώστες στο [email protected]
FOLLOW ROMFEA: