Un gruppo di rinomati ricercatori di IA tra cui Elon Musk, hanno chiesto di fermare lo sviluppo dell’IA e dei suoi sistemi su larga scala, in una lettera aperta indirizzata ai laboratori di tutto il mondo. A loro dire questi software comportano grandi rischi per la società e l’umanità.

La lettera sottolinea che i laboratori di IA sono attualmente intrappolati in una corsa fuori controllo per supportare e distribuire sistemi di apprendimento automatico che nessuno, nemmeno i loro creatori, è in grado di capire, prevedere o controllare in modo affidabile.

Sebbene la lettera sia stata firmata da noti esponenti del mondo tecnologico e ricercatori nel campo dell’IA, è improbabile che abbia un qualche effetto sulla ricerca. Le aziende tecnologiche si sono affrettate a distribuire nuovi prodotti, spesso mettendo da parte le preoccupazioni precedentemente dichiarate sulla sicurezza e anche sull’etica. La lettera sollecita la urgente necessità di fermare lo sviluppo dell’IA per sviluppare e implementare una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo dell’intelligenza artificiale che siano controllati e monitorati da parti esterne indipendenti.

Comunque è indiscutibile che la tecnologia dell’IA ha destato molte inquietudini tra gli esperti e l’opinione pubblica. I motivi di preoccupazione sono molteplici, primo tra tutti la perdita di posti di lavoro. Man mano che i sistemi di intelligenza artificiale migliorano la capacità di svolgere molti lavori e compiti attualmente svolti dagli esseri umani, potrebbero portare a una diffusa disoccupazione o sottoccupazione. Questo potrebbe avere conseguenze devastanti per la società.

Si richiede una Governance

La sfida che abbiamo davanti non è tanto quella delle innovazioni tecnologiche in sé, quanto quella della governance digitale stessa. Purtroppo la nostra società non è preparata all’irruzione dell’IA nella nostra vita. Le nostre istituzioni e sistemi regolatori sono ancora in gran parte ancorati all’epoca della rivoluzione industriale. La forza innovatrice dell’IA, se usata con intenzioni malevoli, può favorire i governi con ambizioni autoritarie, propiziando la diffusione dell’autoritarismo a livello globale.  Vediamo quindi quali sono i pericoli che può creare un’IA senza governance.

  1. Manipolazione e inganno. Si teme che le capacità dell’IA di condurre campagne di persuasione mirate e di automatizzare informazioni fuorvianti possano essere utilizzate per manipolare l’opinione pubblica o interferire nei processi democratici.
  • Pregiudizi e ingiustizie. Se i sistemi di IA sono addestrati su dati distorti o non sono progettati correttamente, potrebbero discriminare ingiustamente gruppi di persone o prendere decisioni importanti che hanno un impatto negativo su determinate popolazioni. Si tratta di una minaccia per la giustizia e l’equità.
  • Mancanza di trasparenza. I sistemi complessi di IA basati sull’apprendimento automatico sono spesso opachi e difficili da capire, interpretare e di cui le persone si fidano. Questo problema di “scatola nera” rende difficile controllarli e regolamentarli adeguatamente.
  • Disoccupazione e salute mentale. Alcune ricerche suggeriscono che un futuro caratterizzato da un’IA diffusa e dall’automazione del lavoro potrebbe aumentare i tassi di ansia, depressione e altri problemi, soprattutto per coloro che non riescono a trovare un lavoro significativo. Lo scopo e le connessioni sociali sono fondamentali per il benessere.
  • Preoccupazioni per la superintelligenza. Sebbene non sia imminente, un’IA avanzata con un’intelligenza di livello umano o sovrumano che superi le capacità umane potrebbe avere un impatto enorme sulla società, difficile da prevedere o controllare, secondo esperti come Elon Musk, Stephen Hawking e Stuart Russell. Le adeguate misure di salvaguardia e meccanismi di controllo sarebbero fondamentali.
Regolamentazione dell'IA

No alla pausa, Si alla regolamentazione dell’IA

Vediamo ora le obiezioni di chi invece crede che sia possibile controllare e normare l’IA, senza per questo dover fare una pausa temporale.

  1.  Fermare lo sviluppo dell’IA non è una soluzione praticabile. L’IA è un campo di ricerca attiva e di applicazione nel mondo reale con molti casi d’uso benefici. Vietarla completamente sarebbe quasi impossibile e provocherebbe più danni che benefici. La tecnologia potrebbe inoltre diffondersi in modo occulto, rendendo i rischi ancora più difficili da gestire.
  • I rischi dell’IA avanzata sono spesso sopravvalutati. Anche se dobbiamo essere proattivi e riflessivi, secondo i ricercatori che oggi costruiscono sistemi di IA, è improbabile che macchine super intelligenti possano presto conquistare il mondo. Molti esperti sostengono che abbiamo un controllo maggiore rispetto a quello che spesso viene rappresentato negli scenari fantascientifici di apocalisse.
  • Con le dovute precauzioni, l’IA può essere sviluppata e utilizzata in modo responsabile. La messa in pratica dei principi di privacy, trasparenza, inclusione e responsabilità può contribuire a garantire uno sviluppo responsabile dell’IA. La regolamentazione e le migliori pratiche possono dare forma all’IA in modo che sia vantaggiosa per la società, anziché metterla a rischio
  •  Fermare l’innovazione non è la risposta. Invece di arrestare il progresso, bisogna allinearlo ai valori e alle priorità umane. Le idee per gestire i rischi dell’IA includono elementi come l’IA costituzionale, la ricerca sull’allineamento dei valori, la spiegabilità e la valutazione dell’impatto. Con misure di salvaguardia proattive, si possono massimizzare i vantaggi dell’IA avanzata e ridurre al minimo i danni.
  • Anche gli individui hanno potere e responsabilità. Oltre ai cambiamenti politici e alle misure di salvaguardia, dobbiamo promuovere la consapevolezza delle pratiche di IA responsabile all’interno delle nostre comunità. Il modo in cui gli individui scelgono di sviluppare, utilizzare e interagire con le tecnologie dell’IA, anche nella loro vita personale, influenza i progressi e gli impatti su larga scala. La consapevolezza è fondamentale per consentire un futuro di IA sicuro ed etico per tutti.

Pausa maliziosa?

Infine, c’è anche chi ha visto della malizia nella lettera che richiede la pausa di 6 mesi. Si pensa che questa pausa potrebbe favorire soprattutto i concorrenti che sono rimasti indietro e non riescono a tenere il passo delle società che sono all’avanguardia nello sviluppo dell’IA.

Si fa notare che non è corretto trattare l’IA come un insieme monolitico, piuttosto che come una serie di tecnologie a diversi stadi di avanzamento. Non tutte le aree di progresso dell’IA presentano gli stessi rischi o hanno il potenziale per un pericoloso uso improprio. Una pausa bloccherebbe il progresso su tutta la linea, anche quando i rischi sembrano minimi.

Inoltre, fermare lo sviluppo dell’IA, potrebbe compromettere i finanziamenti, gli investimenti e i partenariati volti a trarre vantaggio dai progressi dell’IA. Il settore dell’IA ha stimolato notevoli investimenti, startup, collaborazioni di ricerca e altre nuove iniziative. Una lunga pausa potrebbe compromettere seriamente tutti questi sforzi, anche se alla fine i progressi riprenderanno.

In sintesi, anche se riflettere sui rischi è importante, secondo molti esperti del settore gli appelli a una pausa generale del progresso dell’IA sono probabilmente troppo estremi e potrebbero essere controproducenti. Regolamentazione, studio e progresso prudente sono preferibili a un arresto indefinito.

Con una ricerca aperta sulla sicurezza dell’IA, l’introduzione di linee guida e principi ed un impegno collettivo per un progresso responsabile, l’IA può trasformare positivamente il nostro mondo in modo sostenibile ed etico.

Il modo in cui il progresso dell’IA impatta sull’umanità è nelle nostre mani e dobbiamo plasmarlo al meglio attraverso una governance proattiva e valori condivisi. Nel complesso, è necessaria una prospettiva equilibrata, sia per raccogliere i frutti che per evitare i rimpianti.

error: Content is protected !!