Roma, 20 feb – Stiamo vivendo la rivoluzione industriale 2.0. A differenza però del periodo che ha visto lo sviluppo di immensi macchinari industriali, questa è però una rivoluzione silenziosa. Il 2000 ha portato tutte le novità che ci si aspettava, come se il cambio matematico dal nove allo zero dovesse necessariamente essere annunciatore di una nuova era. Tecnologia porta tecnologia.
L’accelerazione della tecnologia è necessariamente un bene?
Lo sviluppo tecnico non è una linea retta. Al contrario, velocizza il processo. Nel XIX secolo passarono 39 anni per passare dal telegrafo al telefono: nel XX secolo, invece, perché il primo telefono cellulare cambiasse nel dispositivo senza tasti ci vollero solo 9 anni.
Può sembrare un bene che il progresso umano e scientifico acceleri. Per certi versi lo è. La medicina – fortunatamente – non è più la stessa di duecento anni fa, idem per l’aspettativa di vita. Ma non c’è il rischio di perdere il controllo?
Ora pare che TikTok (recentemente centro di polemica, per alcune “sfide” mortali) si sia resa conto delle responsabilità che comporta avere milioni di persone che producono miliardi di contenuti ogni secondo. Aprendo l’applicazione infatti, apparirà un annuncio in cui la società scrive di “tenere alla sicurezza degli utenti”. Da poco inoltre, pare che stia riformando i contenuti in base all’eta, che dovrà essere re-impostata da ogni utente. Ma cambierà davvero qualcosa? Tralasciando il fatto che sono apparse numerose guide che spiegano come modificare l’età, in modo da non avere limitazioni, ora ci sarà più sicurezza?
Prendiamo come esempio Instagram: ultimamente moltissimi utenti vengono aggiunti in gruppi da “bot” (account fasulli, comandati da un computer), che si fingono belle ragazze, condividendo un link. Questo link però, se cliccato, importerà un virus sul dispositivo. Interessante notare come non vi sia alcun filtro su chi viene aggiunto a questi gruppi, basta essere iscritti al servizio (in questo caso Instagram), per essere in balia del pericolo informatico.
Chi controlla i contenuti?
Inoltre entra in ballo il solito discorso, chi decide e controlla i contenuti? Schedare gli utenti per età potrebbe facilitare un indirizzamento mirato di contenuti specifici. E’ dimostrato che partiti politici, movimenti e mobilitazioni puntino ad una determinata fascia d’età, considerata più influenzabile.
La discriminante dell’età non fermerà di certo la volontà di alcune persone di fare del male. Questi stessi social diventano anche sede di persone che condividono foto o filmati di morti. Oppure utenti che trovano divertimento nel creare entità spaventose, che spesso sono le stesse che contattano direttamente ragazzi per i loro giochi perversi, molte delle volte fatali.
É il caso di Jonathan Galindo. Chi è? Difficile rispondere. Il personaggio di per sé non esiste, è il nome di una maschera macabra che riprende un Pippo dysneiano storpiato, con gli occhi rossi e l’espressione inquietante. La maschera fu creata da “Dusky Sam”, che per diletto costruisce personaggi bizzarri, una sorta di hobby insomma. Purtroppo questo costume venne rubato e usato come profilo per gli adescatori.
L’educazione informatica diventa man mano sempre più necessaria. I pericoli reali della rete – al di là delle magagne fisiche ai dispostivi – sono tangibili. Non passano inosservati i recenti casi di violenza, anche verso se stessi, suscitati dai social media. Straziante è stata la morte della bambina di dieci anni, rimasta vittima di una “sfida” di TikTok. A settembre dello scorso un bambino di undici anni di Napoli si è tolto la vita, questa volta consciamente, per terminare una sfida online. Prima del gesto fatale, avrebbe lasciato un biglietto con scritto “Vi amo ma devo seguire l’uomo col cappuccio”.
Tecnologia costruttiva e distruttiva
L’avvento della tecnologia, come ogni rivoluzione, porta con sé elementi costruttivi, ma anche elementi distruttivi. Certo non si può condannare l’intera era tecnologica per eventi circoscritti, ma è impensabile che a pagarne il prezzo siano bambini o ragazzi che dovrebbero solo godersi il fiore dell’età.
Esiste un progetto quasi fantascientifico, che potrebbe (letteralmente) schedare e reprimere ogni persona sulla faccia della Terra. Parliamo del cosiddetto “Basilisco di Roko”. Cos’è? Un progetto mentale, ossia un robot più strutturato e avanzato, che tutt’ora non esiste, ma, secondo varie ipotesi, potrebbe essere creato in futuro.
Questo “computer evoluto” è apparso per la prima volta nel 2010 nel sito della comunità “LessWrong”, del visionario Eliezer Yudkowsky. In seguito lo stesso Yudkowsky ha vietato la discussione sul Basilisco all’interno del blog. Notare che il gruppo di LessWrong è molto ampio e distribuito in tutto il mondo.
Riunioni fisiche tra i componenti di questo gruppo si tenevano (o si tengono, non si sa) in tutto il mondo, anche in Italia, in particolare a Milano e Torino. Lo stesso sito ufficiale di LessWrong riporta il collegamento Facebook ai loro “colleghi” italiani. Raggiungendo il gruppo affiliato, ci ritroviamo in una pagina chiamata “Altruismo Efficace”, un’associazione no-profit per il bene comune, una sorta di ente beneficiario che inoltre studia come migliorare la vita.
È bene precisare che la comunità di LessWrong è vasta, pertanto i progetti presentati sono molti. Possono non essere sempre in linea con l’obiettivo – di migliorare, appunto, la vita utilizzando la tecnologia e l’intelligenza – di queste comunità.
Il Basilisco di Roko, ovvero i paradossi dell’intelligenza artificiale
Il Basilisco di Roko, qualora fosse creato, sarebbe in grado di riconoscere ogni singola persona nel mondo. Il pericolo scatta qui: questa intelligenza artificiale avrebbe la facoltà di riconoscere chi ha favorito la sua creazione e chi invece no. Anche la sola venuta a conoscenza della possibile esistenza di questo “robot incorporeo”, senza contribuire alla sua venuta al mondo, pertanto, verrebbe interpretata come un’azione contro la stessa entità.
Stando all’idea di base, il Basilisco di Roko sfrutterebbe la Teoria delle Decisioni per identificare coloro che non hanno favorito (anche inconsciamente, come abbiamo detto) la sua creazione, e castigarle. Per fortuna è l’uomo a conferire le capacità alle macchine, dunque, in linea teorica, questo progetto sarebbe contro-producente.
Oltre al fattore “umanità”, è lo stesso gruppo di LessWrong che respinge questo progetto. Secondo i ricercatori, infatti, punire retroattivamente le persone sarebbe uno spreco di risorse, che invece sarebbero utili allo sviluppo. Ma allora perché fu immediatamente bandita la discussione su questo progetto mentale? Arrivati fin qua, ora siete anche voi a conoscenza di questo progetto fantascientifico, pertanto potreste essere in pericolo. Sta tutto nel crederci.
Alberto Emilio Pasini