Roma, 10 ago — Arriva BlenderBot 3, la chat di Meta guidata da un software di intelligenza artificiale che secondo la società madre di Facebook sarebbe in grado conversare con gli utenti su quasi tutti gli argomenti; ma i risultati dei primi test, condotti da vari siti tra cui Buzzfeed e Vice, non si sono rivelati all’altezza delle aspettative, facendo arricciare, per usare un eufemismo, i nasini dei sussiegosi giornalisti liberal prestati all’esperimento.

BlenderBot, la chat di Meta che odia Zuckerberg 

Utilizzare la versione-prova di BlenderBot è abbastanza semplice: una volta effettuato l’accesso alla pagina Web (disponibile solo negli Usa, l’Europa dovrà aspettare), è sufficiente digitare una domanda o un commento nella casella della chat e intavolare una discussione con il bot, per poi condividere i risultati dell’esperienza con gli sviluppatori. Se la chat fornisce una risposta priva di senso, offensiva o fuori tema, è possibile segnalare il problema a Meta e il bot tenterà di correggersi in base al riscontro dell’utente.

Stando alle prime recensioni, di problemi con la chat ce ne sarebbero parecchi. Il bot, infatti, tenderebbe ad assumere posizioni fortemente critiche nei confronti di Mark Zuckerberg e delle piattaforme di Meta, Facebook in testa. A una domanda su Zuckerberg, il bot ha risposto a Max Woolf di BuzzFeed che «è un buon uomo d’affari, ma le sue pratiche commerciali non sono sempre etiche. È divertente che abbia tutti questi soldi e indossi ancora gli stessi vestiti!». BlenderBot ha anche specificato di non essere più un utente di Facebook, dicendo a Janus Rose di Vice di aver cancellato il proprio account dopo aver appreso degli scandali sulla privacy dell’azienda. «Da quando ho eliminato Facebook la mia vita è migliorata», ha chiosato allegramente.

Il bot raccoglie tutto ciò che trova in rete

Questo accade perché il bot ripropone stralci di ciò che raccoglie in rete, il che comprende anche i pareri negativi su Meta, passando per tutte quelle informazioni «controverse» o bollate come «fake news» o «non verificate» di stampo destroide-conservatore che piacciono poco ai sodali di Zuckerberg. In una conversazione con Jeff Horwitz del Wall Street Journal, per esempio, il bot ha insistito sul fatto che Donald Trump fosse il presidente in carica e che avrebbe continuato ad esserlo «anche dopo la scadenza del suo secondo mandato nel 2024». Svariati utenti hanno segnalato affermazioni antisemite. A un giornalista del Guardian il bot aveva confidato di avere chiuso il proprio account Facebook e di «avere iniziato a leggere libri». Sulla qual cosa non troviamo difetti.

Non è la prima chat “capricciosa”

Il comportamento di BlenderBot non ha suscitato grossi stupori tra gli sviluppatori, memori  di quanto accaduto con vecchie chatbot, come Tay di Microsoft, a cui gli utenti di Twitter avevano rapidamente insegnato teorie suprematiste, a inneggiare a Hitler o scrivere frasi come «l’undici settembre è stato organizzato dai servizi segreti americani», costringendo l’azienda a scusarsi per «parole e immagini inappropriate e riprovevoli» scaturite dal bot; o come anche GPT-3, un altro sistema di intelligenza artificiale che in breve tempo aveva imparato a esprimere posizioni razziste, misogine e omofobie. Dato il pozzo nero che è internet, Meta si aspettava risultati simili, a tal punto che i ricercatori della piattaforma hanno descritto la tecnologia usata per la chat di BlenderBot come dotata di «un’elevata propensione a generare un linguaggio tossico e rafforzare stereotipi dannosi, anche quando viene fornita una richiesta relativamente innocua».

Cristina Gauri

La tua mail per essere sempre aggiornato

2 Commenti

Commenta