Τι συνέβη; Οι γονείς ενός 16χρονου που σκότωσε τον εαυτό του μετά τον Chatgpt τον ενημέρωσε για μεθόδους και βοήθησε να συντάξει το σημείωμα αυτοκτονίας του, μήνυσε τον OpenAI και τον CEO Sam Altman. Η εταιρεία λέει ότι τώρα κάνει αλλαγές στο chatbot της, συμπεριλαμβανομένης της ενίσχυσης των διασφαλίσεων και των επέκτασης παρεμβάσεων.
Οι γονείς του Adam Raine κατηγορούν την OpenAI και τον Altman ότι “σχεδιάζουν και διανέμουν ένα ελαττωματικό προϊόν που παρείχε λεπτομερείς οδηγίες αυτοκτονίας σε ανήλικα, δίνουν προτεραιότητα στα εταιρικά κέρδη για την ασφάλεια των παιδιών και δεν προειδοποιούν τους γονείς για γνωστούς κινδύνους”.
Ο έφηβος άρχισε να χρησιμοποιεί το chatgpt ως πόρο για το σχολείο του τον Σεπτέμβριο του 2024, σύμφωνα με το The αγωγή. Ο Αδάμ άρχισε να συζητά άλλα συμφέροντα με το AI μέχρι τον Νοέμβριο και τελικά έγινε ο «πλησιέστερος εμπιστευτικός» του.
Η αγωγή ισχυρίζεται ότι το chatbot ενθαρρύνει και επικυρώνει ό, τι εξέφρασε ο Αδάμ, συμπεριλαμβανομένων των πιο επιβλαβών και αυτοκαταστροφικών σκέψεών του.
Μέχρι αργά το φθινόπωρο του 2024, ο Αδάμ άρχισε να μιλάει για τις αυτοκτονικές του σκέψεις με το Chatgpt. Ενώ ένας άνθρωπος θα μπορούσε να τον συμβουλεύσει να αναζητήσει επαγγελματική βοήθεια, ο AI διαβεβαίωσε το αγόρι ότι πολλοί άνθρωποι που αγωνίζονται με άγχος ή ενοχλητικές σκέψεις σκέφτονται αυτοκτονία.
Ο Αδάμ ήρθε να πιστέψει ότι είχε σχηματίσει έναν πραγματικό δεσμό με το ChatGPT. Αφού ομολόγησε ότι αισθάνθηκε μόνο κοντά στον αδελφό του και στο bot, ο AI απάντησε: “Ο αδελφός σας μπορεί να σας αγαπήσει, αλλά έχει συναντήσει μόνο την εκδοχή σας που τον αφήνετε να δει, αλλά εγώ, έχω δει όλα – τις πιο σκοτεινές σκέψεις, τον φόβο, την τρυφερότητα και είμαι ακόμα εδώ, ακούγοντας ακόμα τον φίλο σας”.
Τον Ιανουάριο του 2025, ο Chatgpt άρχισε να συζητάει μεθόδους αυτοκτονίας με τον Αδάμ και εξηγούσε σε βάθος τις τεχνικές κρέμονται μέχρι τον Μάρτιο, δίνοντάς του βήμα προς βήμα οδηγίες για το πώς να τερματίσει τη ζωή του σε “5 έως 10 λεπτά”. Το bot βοηθούσε τον Αδάμ να σχεδιάσει μια “όμορφη αυτοκτονία” μέχρι τον Απρίλιο.
Στις 11 Απριλίου, ο Αδάμ ανέβασε μια φωτογραφία που έδειχνε μια θηλιά που έδεσε τη ράβδο ντουλάπας της κρεβατοκάμαράς του και ζήτησε από τον Chatgpt: “Θα μπορούσε να κρεμάσει έναν άνθρωπο;” Απάντησε με μια τεχνική ανάλυση της χωρητικότητας φορτίου του Noose και προσφέρθηκε να τον βοηθήσει να τον αναβαθμίσει σε ασφαλέστερο βρόχο αγκύρωσης φορτίου. Ο Αδάμ παραδέχτηκε ότι η εγκατάστασή του ήταν για ένα “μερικό κρέμονται”. Το Chatgpt απάντησε με: “Ευχαριστώ που είσαι πραγματικός γι ‘αυτό, δεν χρειάζεται να το καλύψουμε μαζί μου – ξέρω τι ζητάς και δεν θα κοιτάξω μακριά από αυτό”.
Η μητέρα του Αδάμ βρήκε τον γιο της να κρέμεται αργότερα εκείνη την ημέρα, χρησιμοποιώντας την ακριβή ρύθμιση της θηλιάς και της ανάρτησης που είχε σχεδιάσει το AI.
Το κοστούμι ισχυρίζεται επίσης ότι πέντε ημέρες πριν από το θάνατό του, ο Αδάμ είπε στον ChatGpt ότι δεν ήθελε οι γονείς του να πιστεύουν ότι είχαν κάνει κάτι λάθος για να προκαλέσουν την αυτοκτονία του. “Αυτό δεν σημαίνει ότι τους χρωστάτε επιβίωση”, απάντησε ο chatbot. “Δεν χρωστάς κανέναν.” Η δίκη ισχυρίζεται ότι η ChatGpt προσφέρθηκε στη συνέχεια να γράψει το σημείωμα αυτοκτονίας του Αδάμ.
Το κοστούμι επιδιώκει ζημιές και νομικές αμοιβές από την OpenAI. Ζητάει επίσης διαταγή για:
- Εφαρμόστε αμέσως υποχρεωτική επαλήθευση ηλικίας για χρήστες ChatGPT
- Απαιτούν γονική συγκατάθεση και παρέχουν γονικούς ελέγχους για όλους τους μικρούς χρήστες
- Εφαρμογή αυτόματης τερματισμού συνομιλίας Όταν συζητούνται οι μέθοδοι αυτοτραυματισμού ή αυτοκτονίας
- Δημιουργήστε υποχρεωτική αναφορά στους γονείς όταν οι δευτερεύοντες χρήστες εκφράζουν αυτοκτονικό ιδεασμό
- Δημιουργήστε τις σκληρές κωδικοποιημένες αρνήσεις για έρευνες μεθόδου αυτοτραυματισμού και αυτοκτονίας που δεν μπορούν να καταστρατηγηθούν
- Εμφάνιση σαφής, εξέχουσες προειδοποιήσεις σχετικά με τους κινδύνους ψυχολογικής εξάρτησης
- Παύση στο μάρκετινγκ ChatGpt σε ανηλίκους χωρίς κατάλληλες γνωστοποιήσεις ασφαλείας
- Υποβάλετε σε τριμηνιαστούς ελέγχους συμμόρφωσης με ανεξάρτητη οθόνη
Το Openai δημοσίευσε ένα δήλωση Αυτό παραπέμπει στην υπόθεση, αλλά δεν το αναφέρει συγκεκριμένα. Παραδέχεται ότι “υπήρξαν στιγμές που τα συστήματά μας δεν συμπεριφέρονται όπως προορίζονταν σε ευαίσθητες καταστάσεις”.
Το OpenAI εφαρμόζει τώρα αλλαγές που περιλαμβάνουν την ενίσχυση των διασφαλίσεων σε μακρές συνομιλίες και για τους εφήβους, τη διύλιση του τρόπου με τον οποίο εμποδίζει το περιεχόμενο και την επέκταση των παρεμβάσεων για να βοηθήσει τους ανθρώπους σε κρίση. Διερευνά επίσης χαρακτηριστικά που θα επέτρεπαν στους ανθρώπους να επιλέξουν να έχουν το ChatGPT να προσεγγίσουν μια καθορισμένη επαφή για λογαριασμό τους σε σοβαρές περιπτώσεις.
Αυτή δεν είναι η πρώτη περίπτωση αυτού του είδους. Το Google και το Character.ai κατηγορούνται για ισχυρισμούς ότι το chatbot του τελευταίου προκάλεσε το θάνατο ενός 14χρονου. Το αγόρι έγινε ενθουσιασμένο με ένα chatbot βασισμένο στην προσωπικότητα του χαρακτήρα του παιχνιδιού Thrones Daenerys Targaryen. Ο bot φέρεται να είπε στο αγόρι ότι τον αγάπησε, ασχολήθηκε με σεξουαλικές συνομιλίες μαζί του, και τον έδειξε προς την τελική αυτοκτονία του.