Velletri 2030: “Ogni grande innovazione porta con sé possibilità straordinarie e rischi reali”

Ogni grande innovazione porta con sé possibilità straordinarie e rischi reali. La scoperta della reazione nucleare, ad esempio, ha aperto la strada sia a centrali che producono energia per milioni di persone, sia alla bomba atomica che ha segnato la storia del Novecento con distruzione e paura. Lo stesso è avvenuto con Internet: nato per facilitare lo scambio di informazioni tra ricercatori, oggi è una risorsa indispensabile per lavoro, conoscenza e comunicazione, ma anche terreno fertile per la disinformazione e il cybercrime.
L’Intelligenza Artificiale si inserisce in questa stessa linea di innovazioni ambivalenti. Può aiutare i medici a diagnosticare malattie precocemente, ottimizzare i consumi energetici riducendo l’impatto ambientale, tradurre lingue in tempo reale e rendere accessibili servizi a chi prima ne era escluso. Allo stesso tempo, può essere usata per manipolare opinioni, sostituire posti di lavoro senza tutele o alimentare sistemi di sorveglianza invasivi.
Non possiamo fermare il progresso tecnologico, così come non abbiamo potuto fermare la scoperta della reazione nucleare o la diffusione del web. Ma possiamo decidere come usarlo: in modo etico, responsabile e con regole condivise che ne massimizzino i benefici e ne riducano i rischi. La vera sfida, dunque, non è bloccare l’innovazione, ma imparare a guidarla.
È attualmente difficile, se non impossibile, comprendere appieno e controllare il funzionamento degli algoritmi di Intelligenza Artificiale (IA), il che li rende strumenti potenzialmente “letali”, in senso letterale. Come nel caso di Adam Raine, un adolescente che avrebbe pianificato il suicidio con l’aiuto di ChatGPT, trasformandolo in vero e proprio complice, il che pone questioni gravi e attualmente irrisolte sul rapporto degli umani con l’IA. Lo racconta MatteoFlora in un bell’articolo che spiega le caratteristiche di questi sistemi.
Al di là dei diversi punti di vista, quello che è evidente è che non è possibile frenare l’IA, ma sta a ognuno riflettere sui suoi pro e i suoi contro, e imparare a usarla responsabilmente. Ci troviamo davanti a una nuova tecnologia che farà parte, in un modo o nell’altro, del nostro futuro. Ma ad oggi, informarsi usando ChatGPT può essere rischioso quanto informarsi su Internet e sui Social, proprio perché su tutti questi canali si possono trovare informazioni non scientificamente validate ma basate solo su opinioni o assunti che “danno ragione a noi stessi”. Anche a livello di scrittura, si rischia di creare testi sbagliati o simili tra loro, privi di anima. Per questo ci deve essere sempre una collaborazione fra intelligenza artificiale e umana. I testi realizzati da ChatGPT, ad esempio, vanno sempre rivisti, adattati, integrati con contributi propri,
Tutto questo ci ricorda quanto sia importante alzare le antenne quando usiamo le tecnologie e, soprattutto, rendere le persone consapevoli di che cosa comporta il loro utilizzo. Sensibilizzare fin dai banchi di scuola è fondamentale, considerando quanto le giovani e i giovani siano immersi quotidianamente in questi strumenti.
L’ AIAct europeo è un primo passo, ma da solo non basta: l’intelligenza artificiale può amplificare fragilità e rischi, come la storia di Adam Raine ci ricorda con crudezza, ma può anche diventare un alleato prezioso se sapremo governarla con regole, etica ed educazione. Non si tratta di temere l’IA, ma di imparare a convivere con essa, consapevoli che la tecnologia non sostituirà mai del tutto l’intelligenza umana, la capacità critica e l’empatia. Il futuro dipenderà da quanto saremo in grado di restare protagonisti, trasformando l’IA da minaccia percepita a risorsa condivisa per la società.
In conclusione, non possiamo fermare l’Innovazione Tecnologica, ma possiamo decidere la direzione del suo cammino. E quel cammino, oggi più che mai, deve portare avanti l’umanità, non sostituirla, Sta a noi scegliere se farne un’arma di distruzione o uno strumento di progresso.
Sandro Bologna
Presidente Velletri 2030
Sandro Bologna
Presidente Velletri2030
https://www.velletri2030.it
https://www.facebook.com/velletri2030/










