Pensate al martello. Il martello – come tutti sappiamo bene – è uno strumento semplice, costituito da una testa pesante e un lungo manico, impiegato fondamentalmente per colpire oggetti. Viene usato in carpenteria, edilizia, meccanica, ma anche in piccole attività domestiche. Vero è anche però, che – se utilizzato in modo “non convenzionale” – può finire per fare male (anche molto male) a qualcuno.
Non sono partito dall’esempio del martello perché voglia parlare di utensili comuni, ma perché, come l’intelligenza artificiale, il martello è uno strumento potente che, se usato nel modo sbagliato, può diventare pericoloso.
E arrivo al punto:
l’AI, e soprattutto quella generativa di cui tanto si parla dall’ultimo anno e mezzo a questa parte, secondo voi è davvero così pericolosa?
Può davvero causare danni significativi?
Per rispondere a questa domanda, parto da una premessa.
L’intelligenza artificiale generativa è una tecnologia che ormai è entrata prepotentemente a far parte della nostra quotidianità e rifiutare questo fenomeno, imporsi di restarne fuori, non volerla conoscere o comprenderne il funzionamento, a mio avviso, è un errore.
Ci sono volte in cui – secondo me – bisognerebbe essere “surfisti”, seguire il flusso degli eventi. Provare, farsi domande, cercare risposte e accettare quello che non si può cambiare.
In altre parole: alla fine del 2024 non posso fare finta che l’AI generativa non esista. Non posso comportarmi come se non ci fosse.
Ciò premesso – esattamente come nel caso del martello –
l’intelligenza artificiale è e deve essere considerata uno strumento e, in quanto tale, il suo livello di pericolosità dipende dall’utilizzo che se ne fa.
La principale minaccia (e forse l’unica) che vedo nella diffusione sempre più massiva degli strumenti di AI è il fatto che siano disponibili gratuitamente per tutti.
Molti la ritengono pericolosa perché temono possa sostituire quella naturale ed è proprio questo il grande dilemma:
l’intelligenza artificiale generativa può davvero sostituire quella naturale? Voi cosa ne pensate?
Secondo me NO!
No, in primis perché, per per farlo, dovrebbe in qualche modo contenere informazioni relative a tutto lo scibile umano, quindi tutto ciò che l’umanità ha compreso o può comprendere, in ogni campo del sapere, fin dall’inizio della sua esistenza. Fortunatamente questo non è possibile per due ragioni principali. La prima è che la conoscenza umana cresce in modo esponenziale ed è in continua evoluzione. La seconda è che parte della nostra conoscenza è soggettiva, emozionale ed esperienziale, quindi difficilmente traducibile in un formato che un’AI possa comprendere.
A questo aggiungo che l’uomo ha intuito e pensiero critico, che una macchina non avrà mai.
Il che implica il fatto che l’uomo, talvolta, possa prendersi la libertà di sbagliare volutamente, andando contro regole che erano state valide fino a quel momento, perché convinto del contrario.
Un’intelligenza artificiale, invece, no, non sbaglierebbe mai, a meno che non sia l’uomo a inserirvi un algoritmo di errore (ad esempio: “2+2=4, ma ogni tanto no”).
Anche in questo caso, però, compirebbe solo errori programmati, e gli errori programmati non creano esperienza. Decidere di bruciarsi per provare quella sensazione, non sarà mai come bruciarsi accidentalmente…