H Ευρωπαϊκή Ένωση εξετάζει έναν νέο νόμο για την τεχνητή νοημοσύνη, ο οποίος θα ρυθμίζει ορισμένες χρήσεις της τεχνητής νοημοσύνης (AI). Συγκεκριμένα, επιδιώκει να απαγορεύσει ορισμένες χρήσεις της τεχνητής νοημοσύνης, όπως η ευρεία βιομετρική ταυτοποίηση σε πραγματικό χρόνο για την επιβολή του νόμου σε δημόσιους χώρους και να διασφαλίσει ότι λαμβάνονται ορισμένες προφυλάξεις πριν από την ανάπτυξη χρήσεων που θεωρούνται «υψηλού κινδύνου».
Την περασμένη εβδομάδα, το Ευρωπαϊκό Συμβούλιο ενέκρινε τη θέση του σχετικά με την Πράξη. Αυτό είναι ένα σημαντικό ορόσημο και το επόμενο βήμα είναι να διαμορφώσει το Ευρωπαϊκό Κοινοβούλιο μια κοινή θέση, που αναμένεται στις αρχές του 2023, ώστε οι θέσεις αυτών των δύο θεσμικών οργάνων και της Ευρωπαϊκής Επιτροπής να μπορέσουν στη συνέχεια να αποτελέσουν μια τελική κοινή θέση κατά τη διάρκεια του τη λεγόμενη φάση του «τριλόγου» της διαδικασίας.
Ενώ ο νόμος για την τεχνητή νοημοσύνη καλύπτει μια σειρά από σημαντικά ζητήματα, ο Οργανισμός των Creative Commons έχει επικεντρωθεί σε δύο πτυχές της ρύθμισης της τεχνητής νοημοσύνης.:
Πρώτον, ενώ η σχέση των πνευματικών δικαιωμάτων με την τεχνητή νοημοσύνη δεν είναι ο πυρήνας αυτής της πρότασης, είναι σημαντικό οι υπεύθυνοι χάραξης πολιτικής να κατανοήσουν ότι είναι απαραίτητοι κατάλληλοι περιορισμοί στα πνευματικά δικαιώματα για την εξυπηρέτηση του δημόσιου συμφέροντος. Η πρωτοτυπία και η ανθρώπινη συγγραφή πρέπει να παραμείνουν ουσιαστικές για την παραχώρηση πνευματικών δικαιωμάτων ή άλλων σχετικών αποκλειστικών δικαιωμάτων επί δημιουργικών έργων και το περιεχόμενο που δημιουργείται με ελάχιστη ανθρώπινη συνεισφορά από AI δεν πληροί αυτά τα πρότυπα. Επιπλέον, η εκπαίδευση της τεχνητής νοημοσύνης σε έργα που προστατεύονται από πνευματικά δικαιώματα δεν πρέπει να περιορίζεται από τη νομοθεσία περί πνευματικών δικαιωμάτων. Ευτυχώς, ο νόμος AI δεν παρεμβαίνει σε αυτές τις βασικές προϋποθέσεις.
Δεύτερον, έχουμε επικεντρωθεί στο να διασφαλίσουμε ότι ο νόμος AI ακολουθεί μια προσαρμοσμένη προσέγγιση για την τεχνητή νοημοσύνη γενικού σκοπού (GPAI) και, ειδικότερα, την κοινή χρήση και χρήση εργαλείων ανοιχτού κώδικα. Πιστεύουμε ότι αυτό είναι ιδιαίτερα σημαντικό για να γίνει σωστό, δεδομένου του γεγονότος ότι το GPAI μπορεί να έχει μυριάδες διαφορετικές χρήσεις, συμπεριλαμβανομένων εργαλείων AI για τη δημιουργία περιεχομένου όπως το GPT-3 και το Stable Diffusion.
Επειδή το GPAI είναι εξ ορισμού ένα εργαλείο πολλαπλών χρήσεων, μπορεί να μην είναι πρακτικό για τους προγραμματιστές GPAI να εφαρμόσουν τη διαχείριση κινδύνου με τρόπους κατάλληλους για στενά καθορισμένες, «υψηλού κινδύνου» χρήσεις τεχνητής νοημοσύνης. Με τη σειρά της, η επιβολή των ίδιων κανόνων στους δημιουργούς GPAI μπορεί να δημιουργήσει σημαντικά εμπόδια στην καινοτομία και να οδηγήσει στη συγκέντρωση της αγοράς, με αποτέλεσμα η ανάπτυξη της τεχνητής νοημοσύνης να εμφανίζεται μόνο σε έναν μικρό αριθμό μεγάλων εμπορικών φορέων με καλούς πόρους. Όταν πρόκειται για GPAI ανοιχτού κώδικα, η υπερβολικά ευρεία ρύθμιση μπορεί να είναι ιδιαίτερα επιβλαβής, καθώς ο ανοιχτός κώδικας είναι κρίσιμος για τη μείωση των φραγμών στην ανάπτυξη τεχνητής νοημοσύνης και οι προγραμματιστές ανοιχτού κώδικα έχουν ακόμη πιο περιορισμένη ικανότητα να ελέγχουν τον τρόπο κοινής χρήσης και επαναχρησιμοποίησης των έργων τους .
Αν και υπάρχει ένα ευρύ φάσμα απόψεων σχετικά με τον καλύτερο τρόπο αντιμετώπισης του GPAI, η καλύτερη προσέγγιση, πιστεύουμε, θα ήταν να επικεντρωθούν οι νομοθέτες και οι κανονισμοί στη διασφάλιση ότι οι δημιουργοί GPAI παρέχουν πληροφορίες στους μεταγενέστερους χρήστες, ώστε να μπορούν να συμμορφώνονται κατά την εφαρμογή «χρήσεων υψηλού κινδύνου». Όταν οι δημιουργοί και οι χρήστες του GPAI έχουν μια συνεχή σχέση, ο νόμος περί τεχνητής νοημοσύνης θα μπορούσε να απαιτεί συνεχή ανταλλαγή πληροφοριών και συνεργασία για την υπηρεσία της συμμόρφωσης, με απαιτήσεις προσαρμοσμένες στους ρόλους των διαφόρων παραγόντων. Όσον αφορά τον ανοιχτό κώδικα, ο νόμος θα πρέπει να υιοθετήσει μια αναλογική προσέγγιση, διασφαλίζοντας ότι οι προγραμματιστές διαθέτουν πληροφορίες σε μεταγενέστερους χρήστες για να υποστηρίξουν τη συμμόρφωσή τους, αλλά διαφορετικά δεν ρυθμίζει το λογισμικό ανοιχτού κώδικα ή δημιουργεί την προσδοκία ότι οι προγραμματιστές ανοιχτού κώδικα μπορούν να ελέγξουν ή να υπεύθυνη για την κατάντη χρήση.
Σε αυτό το θέμα του GPAI, η προσέγγιση του Συμβουλίου φαίνεται να προχωρά παραπέρα, ενώ αφήνει πολλά ερωτήματα ανοιχτά. Το κείμενο του Συμβουλίου εφαρμόζει πολλές από τις απαιτήσεις διαχείρισης κινδύνου για χρήσεις τεχνητής νοημοσύνης «υψηλού κινδύνου» σε όλες τις υπηρεσίες GPAI. Ταυτόχρονα, ο τρόπος με τον οποίο θα εφαρμοστούν συγκεκριμένα αυτές οι απαιτήσεις επαφίεται σε περαιτέρω «εκτελεστικές πράξεις» (παράγωγο δίκαιο) που θα συντάξει η Ευρωπαϊκή Επιτροπή στο μέλλον, και το κείμενο αναγνωρίζει την ανάγκη προσαρμογής των απαιτήσεων με αναλογικό τρόπο προς τις διαφορετικές του GPAI στοιχεία. Μολονότι εκτιμούμε την πολυπλοκότητα στη σύνταξη πρωτογενούς νομοθεσίας αυτού του είδους, η οποία θα είναι ασφαλής για το μέλλον, η πιθανή καθυστέρηση στη σαφήνεια σχετικά με την τεχνική εφαρμογή των διατάξεων του GPAI μπορεί να αποτελέσει σημαντικό εμπόδιο για την καινοτομία και την κοινή χρήση. Στο μέτρο του δυνατού, αυτό θα πρέπει να αποφεύγεται.
Είμαστε στην ευχάριστη θέση να δούμε ότι θα δοθεί περαιτέρω προσοχή σε αυτό το θέμα, αν και αυτή η προσέγγιση αφήνει σημαντική αβεβαιότητα στους προγραμματιστές αυτή τη στιγμή. Έχοντας αυτό υπόψη, θα παροτρύνουμε το Κοινοβούλιο να συνεχίσει να βελτιώνει την πρόταση για να διασφαλίσει ότι οι αρμοδιότητες κατανέμονται με τρόπο που να υποστηρίζει την ανάπτυξη GPAI, ειδικά όταν πρόκειται για προγραμματιστές ανοιχτού κώδικα, ώστε να διασφαλιστεί ότι το δυναμικό της τεχνητής νοημοσύνης μπορεί να ωφελήσει την κοινωνία.
Πηγή άρθρου: https://creativecommons.org/