L’intelligenza artificiale (AI) rappresenta una tecnologia in grado di permeare e trasformare ogni aspetto della nostra economia e società. L’AI consente, infatti, potenziali incrementi di produttività o risparmio in ore lavorate, con previsioni (tracciate da The European House Ambrosetti in un recente studio realizzato per Microsoft) che indicano un potenziale aumento del PIL italiano del 18% in caso di adozione estesa nel sistema-Paese. L’AI pare destinata a pervadere le strategie delle imprese dell’ecosistema digitale, trasformare i modelli di business delle aziende, innovare e semplificare i processi e i servizi delle pubbliche amministrazioni, modificare le politiche del lavoro e del welfare e avere un impatto profondo sul sistema dei valori, sull’etica e sulla vita quotidiana delle persone.
Ma in questo contesto, ci sarà ancora spazio per l’essere umano? Quale sarà il suo ruolo all’interno del processo (Human in the loop[1])?
“Il termine Intelligenza Artificiale è una catacresi, ossia una parola che usiamo per chiamare qualcosa che non ha un nome proprio”, così ha esordito Maurizio Ferraris, Professore ordinario di Filosofia teoretica presso l’Università di Torino, nella sessione “Intelligenza, verità, futuro” dell’evento di Associazione Italiana per l’intelligenza Artificiale (AIxIA) “AI Forum 2024”, che TIG – The Innovation Group ha organizzato lo scorso 4 aprile a Milano, a Palazzo Mezzanotte. L’intelligenza artificiale, spiega Maurizio Ferraris, al contrario di quanto il nome possa suggerire, non è intrinsecamente “intelligente” nel senso umano del termine. Piuttosto, dimostra una notevole autonomia nelle attività specifiche per cui è programmata. La sua “intelligenza” è il risultato di algoritmi, dati e modelli, ed è priva di una comprensione simile a quella umana: non può sostituirci in termini di creatività, empatia e intuizione.
L’essere umano rimane distintivo grazie alle sue qualità peculiari, aspetti che non possono essere replicati dall’AI, come ribadito da Federico Faggin, fisico, inventore e imprenditore, anche lui ospite all’evento “AI Forum 2024”: “La differenza tra l’AI e l’essere umano risiede proprio nella coscienza e nel libero arbitrio, concetti che la scienza attuale non riesce ancora a spiegare appieno. Sebbene la scienza possa considerare l’essere umano come una macchina, essa non riesce a ridurci a un semplice algoritmo. Queste concezioni errate ci portano a considerare l’AI come superiore a noi, rendendoci potenzialmente suoi succubi”. La lezione che il fisico Faggin ci consegna è che dovremmo considerare l’AI non come una minaccia alla nostra identità o alla nostra superiorità, quanto piuttosto come un’opportunità per ampliare le nostre capacità e migliorare la nostra comprensione del mondo circostante.
Permangono, tuttavia, preoccupazioni legate a come e in che misura l’applicazione dell’AI possa farci perdere alcune competenze. In aiuto ci viene il punto di vista del Professor Ferraris: “Qualsiasi tecnologia da una parte abilita nuove possibilità, dall’altra sospende e limita alcune funzioni dell’essere umano. Ad esempio, l’introduzione della carta e della matita per i calcoli ha portato alla perdita della capacità di fare calcoli mentali. Tuttavia, ciò non significa che dovremmo abbandonare completamente le vecchie abilità, poiché ogni nuova invenzione non sostituisce quella precedente, ma si aggiunge a essa. Le abilità tradizionali devono coesistere con le nuove, preservando così la diversità delle competenze delle persone”.
Ha senso parlare di etica dall’AI?
Si parla spesso di “intelligenza artificiale etica”, ma l’espressione è impropria. Non è tanto corretto parlare di “AI etica” o di “etica dell’AI”, quanto piuttosto di etica nello sviluppo e nell’utilizzo di questa tecnologia. La macchina stessa non possiede una qualità etica intrinseca; è piuttosto l’essere umano che la progetta, la programma e la utilizza a determinarne la qualità etica. Bisogna quindi concentrarsi sull’educazione delle persone e non della macchina. Etica e responsabilità umana sono aspetti centrali nel dibattito sull’intelligenza artificiale: se da una parte l’AI può causare incidenti, dall’altra è necessario riconoscere che la responsabilità giuridica di tali errori rimane saldamente nelle mani dell’essere umano che l’ha programmata e che la utilizza. Come ribadito da Federico Faggin durante il suo intervento “L’AI è un grande dono, ma dobbiamo usarlo bene e per farlo occorre integrare etica, buoni intenzioni e volontà di collaborare”.
In conclusione, mentre alcune preoccupazioni sono legittime, demonizzare il progresso tecnologico non è la soluzione. D’altronde è inevitabile che la tecnologia continui il suo corso. Piuttosto la vera sfida che l’intelligenza artificiale ci presenta risiede nel ridefinire la relazione tra l’umanità e la tecnologia, e di conseguenza, il nostro ruolo nei suoi confronti.
[1] Espressione dal libro “Human in the loop. Decisioni umane e intelligenze artificiali” di Paolo Benanti.
Ricevi gli articoli degli analisti di The Innovation Group e resta aggiornato sui temi del mercato digitale in Italia!