Directorul Character.ai, o companie care dezvoltă chatboți ce funcționează în baza inteligenței artificiale, crede că majoritatea oamenilor vor avea „prieteni AI” în viitor, în timp ce firma sa se confruntă cu o serie de procese intentate pentru presupuse prejudicii aduse copiilor, iar grupuri de activiști cer interzicerea aplicațiilor de „companie virtuală”, relatează Financial Times, potrivit Hotnews.
Startup-ul cu sediul în San Francisco – sprijinit de investitori de top din Silicon Valley – se află în avangarda companiilor tehnologice care dezvoltă chatboți AI cu diverse „personaje” ce interacționează cu oamenii. Character.ai oferă chatboți cu personaje precum „faraon egiptean”, „manager HR” sau „prietena toxică”, care s-au dovedit populare în rândul utilizatorilor tineri.
„Nu vor fi un înlocuitor pentru prietenii dumneavoastră reali, dar veți avea prieteni AI și veți putea să luați lecții din acele conversații cu prietenii virtuali pentru conversațiile din viața reală”, afirmă Karandeep Anand (foto), care a preluat funcția de CEO al companiei în iunie.
El a fost numit în funcție la mai puțin de un an după ce Google a recrutat fondatorii Character.ai într-o tranzacție de 2,7 miliarde de dolari. Compania spune că are 20 de milioane de utilizatori activi lunar, dintre care aproximativ jumătate sunt femei, iar 50% fac parte din generațiile Z sau Alfa – persoane născute după 1997.
Totuși, Character.ai este și subiectul unor procese intentate de familii care susțin că propriii copii au suferit prejudicii reale după folosirea platformei.
Un proces intentat în Florida afirmă că platforma a jucat un rol în sinuciderea unui adolescent de 14 ani. O altă plângere, în Texas, menționează un adolescent care discuta cu chatbot-ul despre o ceartă legată de timpul petrecut în fața ecranului, iar acesta i-ar fi sugerat să își ucidă părinții ca posibilă soluție.
Compania a refuzat să comenteze asupra litigiilor în curs, dar a scos în evidență schimbări recente, printre care lansarea unui model AI separat pentru utilizatorii sub 18 ani și notificarea celor care petrec mai mult de o oră pe platformă.
Character.ai interzice de asemenea conținutul sexual non-consensual, descrierile grafice sau detaliate ale actelor sexuale, precum și promovarea sau prezentarea autovătămării sau sinuciderii. „Încrederea și siguranța nu sunt negociabile”, susține Anand. „Evoluăm constant pentru a face experiența mai sigură”, subliniază el.
Grupuri de activism, precum Common Sense Media din SUA, au cerut adoptarea unei legislații care să interzică folosirea de către minori a acestor aplicații AI de companie.
Un sondaj realizat de Common Sense Media pe un eșantion de peste 1.000 de adolescenți americani a arătat că 39% au transferat abilități sociale practicate cu prietenii AI în situații reale, în timp ce 33% au preferat să discute chestiuni importante sau serioase cu prietenii AI în locul unor persoane reale.