Την οριστική του απόλυση έλαβε ο Blake Lemoine, ο μηχανικός της Google που προ εβδομάδων κατήγγειλε πως το chatbot τεχνητής νοημοσύνης LaMDA έχει αποκτήσει συνείδηση.
Η επιστολή απόλυσης εστάλη την Παρασκευή, ενώ από τον Ιούνιο είχε τεθεί σε αναγκαστική άδεια για την παραβίαση της πολιτικής εχεμύθειας της εταιρείας.
Γιατί έχουν σημασία οι καταγγελίες;
Η «συνειδητότητα» των συστημάτων AI έχει αποκτήσει ιδιαίτερη βαρύτητα στις συζητήσεις εταιρειών όπως η Google, η OpenAI και η Facebook καθώς προσπαθούν να αναπτύξουν πολύπλοκα γλωσσικά μοντέλα.
Όπως ο Lemoine, πολλοί ανησυχούν πως αυτά τα συστήματα είναι στο κατώφλι του να αποκτήσουν συνείδηση.
Τον Ιούνιο, ο Lemoine, που εργαζόταν για το τμήμα της Google «Responsible AI», ισχυρίστηκε πως η LaMDA απέκτησε συνείδηση επικαλούμενος τις συζητήσεις του με το chatbot.
Επίσης, είπε πως έχει αποκτήσει τα δικά του συναισθήματα και σκέψεις και επιθυμεί οι μηχανικοί να λαμβάνουν την συγκατάθεση του πριν διεξάγουν πειράματα πάνω του.
Ο Lemoine, ακόμα, ενημέρωσε την κυβέρνηση και προσέλαβε ένα δικηγόρο για να εκπροσωπήσει τη LaMDA.
Αρνείται η Google
Από την πλευρά της, η Google αρνείται τους ισχυρισμούς του και δηλώνει πως η LaMDA είναι μια εξαιρετική μίμος αλλά δεν έχει συνείδηση.
Σύμφωνα με τον ίδιο, το αίτημά του για παρουσία τρίτου μέρους στη συνάντηση απορρίφθηκε από την Google. Ο μηχανικός είπε ότι μιλά με τους δικηγόρους του για τα μελλοντικά του βήματα.
Η Google έδειχνε πάντα την πυγμή της όταν οι εργαζόμενοι αμφισβητούσαν την ανάπτυξη της τεχνολογίας τεχνητής νοημοσύνης. Η Margaret Mitchell και η Timnit Gebru του τμήματος Ethical AI απολύθηκαν επίσης για προειδοποιήσεις τους σχετικά με τους κινδύνους της LaMDA.
Η LaMDA ή «Γλωσσικό μοντέλο γλώσσας για εφαρμογές διαλόγου» είναι ένα προηγμένο μοντέλο μηχανικής εκμάθησης γλωσσών από την Google. Εκπαιδεύεται σε τρισεκατομμύρια κείμενα από το διαδίκτυο και μπορεί να ανταποκριθεί σε γραπτές εντολές.
Καθώς είναι εκπαιδευμένο στους διαλόγους, έχει τη δυνατότητα να προβλέψει την επόμενη πιο πιθανή λέξη σε μια πρόταση. Αυτό μπορεί να οδηγήσει σε προσομοίωση ανθρώπινων συνομιλιών.