Τι μάθαμε στο Νταβός για την τεχνητή νοημοσύνη

Την προηγούμενη εβδομάδα ολοκληρώθηκε το Παγκόσμιο Οικονομικό Φόρουμ 2024 στο Νταβός της Ελβετίας, το οποίο και επιβεβαίωσε την πρωτοκαθεδρία της τεχνητής νοημοσύνης στην ατζέντα των παγκόσμιων συζητήσεων.

Σταχυολογώντας τις συζητήσεις στο πλαίσιο αυτής της παγκόσμιας συνάντησης, ξεχωρίζουν δύο σημεία που αξίζουν ιδιαίτερης προσοχής και συγκέντρωσαν το μεγαλύτερο ενδιαφέρον των μεγαλύτερων πολιτικών και οικονομικών παραγόντων.

Το πρώτο είναι η έμφαση που δόθηκε στην ιδιαίτερη «ισχύ» της τεχνολογίας αυτής να δημιουργήσει φαινόμενα «παραπληροφόρησης» με πολιτικό κίνητρο και περιεχόμενο.

Η βαρύτητα που δόθηκε σε αυτήν την διάσταση ευθυγραμμίζεται πλήρως με τα ευρήματα της πρόσφατα δημοσιευμένης Έκθεσης Παγκόσμιων Κινδύνων 2024 του WEF, η οποία όχι μόνο τοποθετεί την τεχνητή νοημοσύνη ψηλά στην σχετική αξιολόγηση αλλά αναφέρεται ρητά στην παραπληροφόρηση ως την μεγαλύτερη βραχυπρόθεσμη απειλή στον κόσμο.

Η έκθεση σημειώνει ότι με τα εργαλεία Gen AI, όπως το ChatGPT-4 και το Bard, είναι πλέον ευκολότερο να δημιουργούνται κείμενα, εικόνες και βίντεο που συχνά δεν διακρίνονται από εκείνα που παράγονται από ανθρώπους, καθιστώντας ευκολότερη την κατασκευή και τη διάδοση παραπλανητικών ή λανθασμένων πληροφοριών στο διαδίκτυο.

Το θέμα είναι ιδιαίτερα σημαντικό τώρα, καθώς προετοιμαζόμαστε για τη μεγαλύτερη εκλογική χρονιά στην ιστορία, όπου περισσότερος από τον μισό πληθυσμό του πλανήτη -σε πάνω από 65 χώρες- θα κληθεί να ασκήσει το εκλογικό του δικαίωμα, συμπεριλαμβανομένων μεγάλων οικονομιών, όπως είναι οι ΗΠΑ, το Ηνωμένο Βασίλειο, η Ινδία και η Ινδονησία.

Το δεύτερο είναι ότι για πρώτη φορά ο ενθουσιασμός για τα επιτεύγματα της επιδραστικής αυτής τεχνολογίας συνοδεύτηκε ή πιο συγκεκριμένα μετριάστηκε από την ανάδειξη μιας πιο περίπλοκης και σκοτεινής πραγματικότητας.

Οι ηθικοί προβληματισμοί για την τεχνητή νοημοσύνη βρέθηκαν στο επίκεντρο πολλών συζητήσεων, κοινός παρονομαστής των οποίων ήταν η έκκληση για την θέσπιση ενός αυστηρού ηθικού πλαισίου για τον σχεδιασμό και την εφαρμογή της τεχνολογίας αυτής. Εκφράστηκαν ανησυχίες σχετικά με το ενδεχόμενο η τεχνητή νοημοσύνη να διογκώσει τις υπάρχουσες ανισότητες και τονίστηκε η ιδιαίτερη σημασία της δίκαιης πρόσβασης τόσο κρατών αλλά και συγκεκριμένων κοινωνικών ομάδων στις ωφέλιμες λειτουργίες.

Ταυτόχρονα με την αναγνώριση των τρομακτικών ικανοτήτων της τεχνολογίας αυτής, ήταν ιδιαίτερα έντονος ο προβληματισμός για το πώς ακριβώς θα διασφαλιστεί η υπεύθυνη χρήση αυτής της τεχνολογίας, πέρα από γενικές αρχές και διακηρύξεις, ελλείψει μάλιστα ενός ικανού δείγματος ευρημάτων από τις διάφορες πιλοτικές δοκιμές και πρωτοκόλλων αξιολόγησής τους.

Αναγνωρίστηκε, επίσης, ότι η τεχνολογία αυτή, εκτός των ερωτημάτων που θέτει για τον χώρο της εργασίας, τα προσωπικά μας δεδομένα και την ίδια την δημοκρατία, θα οδηγήσει αναπόφευκτα σε συζητήσεις για την ανάγκη επανοηματοδότησης της ανθρώπινης δημιουργίας, την αναγκαιότητα διαρκούς ανθρώπινου ελέγχου και επίβλεψης αλλά και διασφάλισης ότι η σχετική πολιτική, κοινωνική και ηθική συζήτηση θα συνεχιστεί και θα «διευρυνθεί» παράλληλα, καθώς η τεχνολογία εξελίσσεται.

Εάν κάτι θα θυμόμαστε μετά από καιρό από την φετινή σύσκεψη είναι το γεγονός ότι ανέδειξε την διττή φύση της τεχνητής νοημοσύνης ως καταλύτη δημιουργίας τόσο μακροπρόθεσμων ωφελειών όσο και δομικών κινδύνων κάθε είδους. Καθώς πλοηγούμαστε σε αυτό το έδαφος, οι αποφάσεις που λαμβάνουμε για την ανάπτυξη και τη ρύθμιση της τεχνητής νοημοσύνης θα διαμορφώσουν ανεξίτηλα την παγκόσμια κοινωνία μας.

Η διεθνής αυτή συνάντηση μας υπενθύμισε ότι η τεχνητή νοημοσύνη, στον πυρήνα της, αφορά το μέλλον που επιλέγουμε να σφυρηλατήσουμε, ένα μέλλον που θα πρέπει να καθοδηγείται από υψηλές κοινωνικές αξίες και ενσυναίσθηση.

Για την χώρα μας, αυτά τα συμπεράσματα αποκτούν μια ιδιαίτερη διάσταση: η ανάγκη να επενδύσουμε (ή να διαχειριστούμε ξένες τεχνολογικές επενδύσεις) στην τεχνολογία αυτή θα πρέπει να συνοδευτεί άμεσα από μια παράλληλη στρατηγική για το τι μοντέλο ψηφιακής διακυβέρνησης θέλουμε να δημιουργήσουμε, τους όρους προσβασιμότητάς του αλλά και το τι είδους ρήτρες διαφυγής είμαστε έτοιμοι να υιοθετήσουμε.

*O Δρ Μιχάλης Kρητικός είναι ερευνητής του ΕΛΙΑΜΕΠ και Επίκουρος Καθηγητής σε θέματα Τεχνητής Νοημοσύνης και Ψηφιακής Μετάβασης στη Σχολή Διακυβέρνησης του Πανεπιστημίου των Βρυξελλών.

 

Πηγή: https://www.iefimerida.gr/

Απάντηση