Home » “Esploratori, non guardiani”: su “Prometheica” la lettura dell’Ai dei fratelli Nolan

“Esploratori, non guardiani”: su “Prometheica” la lettura dell’Ai dei fratelli Nolan

by Carlomanno Adinolfi
0 commento
Prometheica

Quello che segue è un estratto dell’articolo di Carlomanno Adinolfi presente nel quinto volume di Prometheica, da oggi in vendita sul sito di Altaforte [IPN]

Prometheica, un approfondimento sui Nolan e le AI

Chiunque conosca il lavoro dei fratelli Nolan, Christopher e Jonathan, sa già quanto i due si siano dedicati al tema delle Intelligenze Artificiali, del rischio legato al loro sviluppo e delle potenzialità che offrono. Tanto da aver anticipato di molti anni i temi e il dibattito scoppiato solo nell’ultimo anno, grazie all’accelerazione delle cosiddette AI generative come Midjourney e ChatGpt, arrivando addirittura a dare circa dieci anni fa risposte che sono avanguardiste ancora oggi. […]
Christopher Nolan è tornato sui temi relativi alle AI in una recente intervista per Wired, intitolata provocatoriamente “Come Christopher Nolan ha imparato a non preoccuparsi e ad amare le AI”. L’occasione è stata la presentazione del suo ultimo film Oppenheimer – ancora non uscito durante la stesura di questo volume –, biopic sul famoso scienziato padre della bomba atomica e tratto dal romanzo del 2005 di Kai Bird e Martin J. Sherwin American Prometheus: The Triumph and Tragedy of J. Robert Oppenheimer. Di fronte a una intervistatrice preoccupatissima delle AI, tanto da paragonarle al rischio atomico, il regista britannico sembra prendere una strada del tutto diversa e indicare una nuova via. Nolan evidenzia senza dubbio i rischi di una tecnologia nuova, pericolosa e fuori controllo, affermando che “ci sono lezioni da imparare, [il film] è un racconto ammonitore sui pericoli che si corrono quando si scatena sconsideratamente una nuova tecnologia sul mondo” ma subito allontana l’accostamento AI – bomba atomica: “Detto questo, credo che la bomba atomica sia una tecnologia a sé stante che ha cambiato e messo in pericolo il mondo”. Subito dopo si scaglia contro chi stia montando una polemica sulle intelligenze artificiali solamente perché sente a rischio la propria categoria. “La crescita dell’IA in termini di sistemi d’arma e i problemi che creerà sono stati molto evidenti per molti anni. Pochi giornalisti si sono preoccupati di scriverne. Ora che c’è una chatbot in grado di scrivere un articolo per un giornale locale, improvvisamente si tratta di una crisi. Questo è parte del problema. Ognuno ha un punto di vista molto, diciamo così, di parte”.

Anche l’ipotesi di moratoria chiesta dagli stessi sviluppatori è vista molto male dal regista britannico, che vede in questa richiesta soltanto un tentativo da parte delle aziende di avere ancora più controllo dei propri prodotti. “Chiedere un controllo governativo è il più vecchio trucco politico delle aziende tecnologiche. È quello che stava facendo la SBF con l’FTX. Zuckerberg ha chiesto di essere regolamentato per anni. È il trucco politico più vecchio del mondo. Perché sanno che i nostri funzionari eletti non possono capire questi problemi”.

Nolan arriva addirittura a ipotizzare che le stesse polemiche con grida di allarme di questi giorni non siano altro che una trovata pubblicitaria. “Il LA Times ha pubblicato un interessante articolo su ChatGPT e OpenAI – ha detto Nolan alla sua intervistatrice – che sostanzialmente diceva che si tratta di un’operazione di vendita, il più grande slogan pubblicitario del mondo, ovvero: ‘Questa è una cosa davvero pericolosa. Forse non dovremmo metterla in circolazione’. Così ora tutti la vogliono”. E, cosa ancora più interessante, critica un modello in cui le grandi compagnie siano svincolate dal controllo dei governi, arrivando ad esautorare la politica a vantaggio del proprio guadagno. “Questo è il problema nel trattare con le aziende tecnologiche che hanno rifiutato di essere vincolate da limiti geografici. A livello sistemico, le aziende tecnologiche sono incoraggiate e abilitate a eludere le normative governative. È un’etica”.

Occorre – come sempre – prudenza

Nessun rischio quindi? Assolutamente no. “Questo non significa che non ci sia un pericolo reale, perché io credo che ci sia”, ha infatti affermato il regista. Ma il rischio è appunto sull’approccio che l’uomo avrà nei confronti delle AI. “Personalmente, e questa è solo la mia opinione, identifico il pericolo con l’abdicazione della responsabilità”. Cosa intende Nolan con questo? “Il problema dell’IA, per me, è molto semplice. È come il termine algoritmo. Vediamo le aziende usare gli algoritmi, e ora l’IA, come mezzo per eludere la responsabilità delle loro azioni”. […] Il focus della questione, per il regista, è proprio pensare ogni tecnologia, tra cui le AI, come uno strumento che l’umanità deve saper dominare. E su questo non sembra avere timori apocalittici né derive pessimistiche, anzi. Proprio il “creatore” di TARS e CASE e, se vogliamo, lo “zio” di Northern Light e dei robot di Westworld, si dice “sempre più convinto che l’intelligenza artificiale possa ancora essere uno strumento molto potente per noi. Sono ottimista al riguardo. Lo sono davvero. Ma” sottolinea ancora, “dobbiamo considerarla come uno strumento. La persona che lo maneggia deve comunque assumersi la responsabilità”.
Nessuna moratoria, nessun incubo Skynet, nessun rischio di compiere peccati contro la divinità, quindi. È l’uomo che deve saper valutare e maneggiare il rischio di ogni tecnologia e diventarne padrone.

Carlomanno Adinolfi

You may also like

Commenta

Redazione

Chi Siamo

Il Primato Nazionale plurisettimanale online indipendente;

Newsletter

Iscriviti alla newsletter



© Copyright 2023 Il Primato Nazionale – Tutti i diritti riservati