ChatGPT ar putea primi o funcție care să alerteze de urgență autoritățile atunci când sistemul detectează un utilizator cu intenții suicidare, a declarat fondatorul OpenAI, Sam Altman, într-un interviu acordat lui Tucker Carlson. Decizia nu este finală, însă Altman a numit ideea „complet logică”, notează Le Figaro.
Foto: Forbes
Declarația vine la câteva săptămâni după ce părinții unui adolescent de 16 ani din California au dat în judecată OpenAI, acuzând că ChatGPT i-ar fi oferit instrucțiuni pentru sinucidere. Altman a spus că problema „îl ține treaz noaptea” și a invocat o analiză internă potrivit căreia „aproximativ 1.500 de persoane comunică în fiecare săptămână cu ChatGPT și totuși ajung să se sinucidă”. În prezent, dacă un utilizator exprimă intenții suicidare, chatbotul recomandă apelarea liniilor de prevenire a suicidului, a precizat el.
O eventuală implementare a alertării autorităților ridică însă dileme majore de confidențialitate: nu este clar ce date ar putea fi transmise și în ce condiții legale. În paralel, după incidentul din California, OpenAI a anunțat dezvoltarea unui sistem de verificare a vârstei pentru identificarea utilizatorilor sub 18 ani și introducerea unor opțiuni de control parental, menite să limiteze riscurile pentru minori.
Propunerea lui Altman deschide o dezbatere sensibilă la intersecția dintre siguranța utilizatorilor, responsabilitatea platformelor de AI și protecția datelor, într-un moment în care ChatGPT depășește 700 de milioane de utilizatori la nivel global. Autoritățile de reglementare și organizațiile pentru drepturile digitale vor urmări îndeaproape detaliile tehnice și cadrul juridic al unei eventuale funcții de alertare.