Sunt oare tehnologiile bazate pe inteligenţă artificială pe cale să devină „conştiente”? Un inginer de la Google a fost suspendat din funcţie după ce a răspuns afirmativ la această întrebare, declanşând o dezbatere care a depăşit sfera companiilor din Silicon Valley despre un subiect care ţine tot mai puţin de universul ştiinţifico-fantastic, informează AFP, potrivit Agerpres.
LaMDA, un program informatic al Google conceput pentru a genera roboţi de conversaţie online (chatbots), „este foarte clar în ceea ce doreşte şi în ceea ce consideră a fi drepturile sale în calitate de persoană”, a scris Blake Lemoine într-un articol publicat în Medium recent. Această opinie a fost în mare parte considerată în cel mai rău caz absurdă sau în cel mai bun caz prematură atât de Google – un gigant în industria noilor tehnologii -, cât şi de comunitatea ştiinţifică. Programele bazate pe învăţare automată (machine learning) sunt „antrenate” pe baza unor jocuri de date ce abordează concepte de conştiinţă sau de identitate şi care sunt, deci, capabile să ofere iluzia unor astfel de concepte. „Programele care au acces la internet pot să răspundă la orice întrebare”, însă acest lucru nu le face totuşi credibile, a declarat profesoara Susan Schneider. Această fondatoare a unui centru de cercetare la Florida Atlantic University dezaprobă totuşi sancţiunile adoptate împotriva inginerului de la Google. Compania californiană are tendinţa „de a încerca să păstreze tăcerea asupra problemelor etice”, a spus Susan Schneider, însă „noi avem nevoie de dezbateri publice asupra acestor subiecte spinoase”.
„Sute de cercetători şi ingineri au purtat ‘discuţii’ cu LaMDA şi nimeni, după informaţiile noastre, nu a formulat astfel de afirmaţii şi nu a personalizat LaMDA aşa cum a făcut-o Blake”, a declarat Brian Gabriel, purtător de cuvânt al grupului Google.
De la Pinocchio la filmul „Her” – care prezintă povestea unei relaţii romantice dintre un om şi un chatbot -, ideea unei entităţi non-umane ce prinde viaţă „este prezentă în imaginaţia noastră”, notează Mark Kingwell, profesor de filosofie la Universitatea din Toronto. „Devine deci dificil să respectăm distanţa dintre ceea ce ne imaginăm ca fiind posibil şi ceea ce este cu adevărat real”, a adăugat el. Inteligenţele artificiale (IA) au fost mult timp evaluate cu ajutorul testului Turing: dacă persoana care coordonează testul poartă o conversaţie cu un computer fără să îşi dea seama că nu discută cu o fiinţă umană, atunci maşina „a trecut testul”.
Oamenii de ştiinţă pot chiar să ofere o anumită personalitate unui software IA. „De exemplu, putem să facem un program AI să treacă drept o persoană nevrotică”, antrenând-o cu ajutorul unor conversaţii pe care o persoană depresivă ar putea să le aibă, a explicat Shashank Srivastava, profesor de ştiinţe informatice la Universitatea Carolina de Nord.
Dacă, în plus, acel chatbot este integrat într-un robot umanoid cu expresii faciale ultra-realiste sau dacă un software scrie poezii şi compune muzică, aşa cum s-a întâmplat deja, simţurile noastre biologice devin uşor de înşelat. „Dacă se reuşeşte să se înlocuiască ţesuturi neuronale cu cipuri electronice, va fi un semnal că maşinile pot fi potenţial conştiente”, a sugerat Susan Schneider. Ea urmăreşte cu atenţie progresele obţinute de Neuralink, un start-up creat de Elon Musk pentru a fabrica implanturi cerebrale în scopuri medicale, dar şi pentru „a garanta viitorul omenirii ca civilizaţie în raport cu IA”, după cum a explicat CEO-ul Tesla şi SpaceX.
Opinia miliardarului sud-african se înscrie astfel într-o viziune în care maşinile atotputernice ar risca să preia controlul pe Terra.