giancarlomangiagli.it

Considerazioni sull'intelligenza artificiale

Avviso per il lettore

Non mi considero un guru dell’intelligenza artificiale ma ho solo messo assieme alcune mie riflessioni in merito, conscio del rischio di incorrere anche in banalità ed errori. Quindi ogni segnalazione correttiva e propositiva al mio indirizzo email è ben gradita e mi permetterà di perfezionare questo articolo che tutto si prefigge meno che di disinformare.

Premessa

Già da decenni si studia e si applica l’intelligenza artificiale ma mai come oggi il mondo produttivo è interessato ad annunciarne diffusamente l’imminente “era” che prenderà il sopravvento stravolgendo lo stile di vita e le abitudini occidentali. Questa previsione mi convince solo in parte perché l’intelligenza artificiale può essere autoreferenziale a autoconsistente solo entro certi limiti, oltre i quali deve fare i conti con una realtà ancora tutt’oggi “stupidamente naturale” (volendo definire un antonimo letterale di “intelligenza artificiale”). Con ciò intendo che l’i.a. non è una bacchetta magica che trasforma seduta stante ciò che ad oggi non è intelligente e/o non è artificiale in qualcosa di intelligente e/o artificiale. In particolare vi sono ostacoli di vario genere e di seguito, attraverso alcuni esempi, cercherò di illustrare in sommi capi quelli mi vengono in mente.

Equivoci

“Buongiorno, vorrei avere la pensione”. Alcuni dei pensionati pronunciano questa richiesta presentandosi allo sportello bancario. La seguente replica sarebbe assolutamente corretta: “Salve, la informo che lei è già beneficiario di pensione. Per ulteriori chiarimenti si rivolga all’Ente previdenziale di competenza”. Ma una tale affermazione potrebbe scatenare una controreplica del pensionato tutt’altro che gradevole. La vita quotidiana è piena di queste circostanze nelle quali il mittente formula un messaggio che si presta ad essere frainteso dal ricevente, per svariati motivi, come l’adozione di espressioni di uso comune ma non universale, oppure a causa frasi ambigue, oppure ancora per un’errata associazione mentale “significante/significato” radicata in alcuni soggetti. Ad esempio mi ricordo che da piccolo ero convinto che le parole “superficie” e “perimetro” fossero sinonimi mentre ancora oggi confondo “divano” con “poltrona” e viceversa (e questi sono gli equivoci meno imbarazzanti che posso raccontare). Quindi se un essere umano non previene correttamente gli equivoci, d’altro canto un sistema artificiale può farlo? E se sì, si può dimostrare? Si dovrebbero provare forse tutte le combinazioni di possibili interazioni uomo-i.a. per dimostrarlo. In soldoni, non sono così convinto che un sistema artificiale, sebbene intelligente, in generale possa gestire gli equivoci meglio dell’essere umano ma forse li può gestire meglio di lui in molte specifiche circostanze. Ad esempio, mentre gli esseri umani sono tutti diversi tra loro, si può tentare di omologare la tecnologia di i.a. affinché tutti i sistemi che l’adottano abbiano delle proprietà comuni, come quella di imparare dai propri errori (non tutti gli umani lo fanno) o di fermarsi ove ci sia un dubbio per effettuare nuove indagini atte a sciogliere l’ambiguità (mentre gli umani agiscono a volte d’istinto e si buttano) eccetera. Peccato che tale omologazione, che permetterebbe di fare su alcuni fronti un salto di qualità rispetto all’intelligenza umana, allo stato attuale sia a mio avviso difficilmente raggiungibile a causa di un problema che affligge tutti i sistemi, non solo quelli di i.a., di cui parlerò più avanti (la disomogeneità).

L’inesperienza

Cosa facciamo noi umani di fronte ad un’esperienza che non abbiamo mai avuto? Decidiamo cosa fare! Ma purtroppo a volte ci accorgiamo solamente a posteriori di aver vissuto una “nuova” esperienza e lì c’è ben poco da decidere. Quindi un conto è avere la capacità di fermarsi per cambiare strategia quando si è di fronte ad una circostanza mai affrontata prima (e le macchine potrebbero riuscirci, al netto delle trappole degli equivoci di cui ho parlato prima); un altro conto è invece non accorgersi della novità durante l’esperienza stessa. Ad esempio, se io sono un venditore di bevande alcoliche al mio primo giorno di lavoro, mi limito a dare ai clienti i prodotti che mi chiedono. Il giorno seguente vengo querelato perché ho venduto alcolici ad un minorenne, che per me, ingenuamente, era un cliente come un altro. Il cliente minorenne è stata una “nuova” esperienza, ma l’ho scoperto solo dopo. Una circostanza del genere è chiaramente ingestibile sia dall’uomo che dall’i.a., salvo chiedendo a tutto il mondo (che è più esperiente di me) ed in ogni istante se si stia facendo la cosa giusta. Ecco che l’esperienza sempre limitata che possiamo avere, rende fallibili sia gli umani che l’i.a. e la situazione viene peggiorata dalla già citata disomogeneità e dall’isolamento (due questioni di cui parlerò a seguire).

L’inaffidabilità

Chi demanderebbe compiti estremamente complessi e/o estremamente rischiosi all’i.a.? La famosa autovettura elettrica con pilota automatico addirittura si prende la briga di sostituirsi in un compito, sia complesso che rischioso, come la guida! Di fronte a tutto ciò, un utilizzatore di una tale autovettura ha davanti a sé tre possibili scelte. La prima è far sì che l’auto guidi da sola, quindi avere massima fiducia. Tenendo presenti i limiti di cui ho parlato su esperienza ed equivoci, non so se in generale sia una buona scelta. Forse lo sarebbe se non ci fossero alternative. La seconda opzione è quella dell’assistenza alla guida. Ma visto che l’auto potrebbe guidare da sola, spesso si sarebbe tentati di cadere nella leggerezza distraendosi al volante, cosa che si avvicina di molto alla prima opzione. Una forma di assistenza è quella in cui la vettura impone il suo intervento attivamente in una situazione che ritiene di pericolo, oppure omette un intervento in situazioni di pericolo che non considera tali; ciò corrisponde a correre il rischio di cadere in falsi positivi e falsi negativi, generando situazioni di potenziale pericolo. La terza opzione è quella in cui l’uomo guida attivamente, con un atteggiamento distaccato rispetto alle dotazioni dell’auto, disattivando gli aiuti automatici ma non le eventuali segnalazioni di pericolo ed è forse la scelta più prudente.

Dopo aver parlato di un compito rischioso e complicato, come la guida, si può vedere che anche se il compito è semplice ma comunque rischioso, si troverebbero le stesse insidie. Ad esempio effettuare un bonifico bancario è un’operazione delicata ma non complessa. Attenzione però a demandarla ad un assistente vocale tramite una richiesta verbale: <<Giuseppex,>> - nome commerciale di fantasia dal gusto esotico - <<fai un bonifico di euro “Tot” alla coordinata bancaria “quello che è” intestata al sig. “Tal dei Tali”>>. E se per caso “Giuseppex” intendesse male l’importo? La correttezza formale delle coordinate bancarie si può verificare in automatico ma l’importo no. In alcuni contesti, quindi, in cui l’affidabilità è essenziale, l’i.a. in generale non ispira particolare fiducia.

La disomogeneità

Ogni sistema di i.a. è un mondo a sé stante, sviluppato con modalità proprie, se non addirittura “proprietarie”. Certamente le tecniche e gli algoritmi si somigliano tra loro ma il comportamento finale è fortemente influenzato dalle singole scelte progettuali e implementative. Pertanto, ai limiti e difetti intrinseci dell’i.a. in generale, si sommano limiti e difetti specifici di ciascun sistema esistente.

L’isolamento

La scienza (tra cui la sociologia e la teoria dei giochi) afferma che in linea generale tra esseri umani o aggregazioni di esseri umani (paesi, enti, aziende etc.) conviene cooperare. Per esteso, la stessa convenienza si troverebbe nell’i.a. ma purtroppo non è ancora così diffusa l’idea progettuale di connettere i vari sistemi (per interagire e comunicare tra loro) che sono quindi, di fatto, isolati. Se si prevedessero dei linguaggi comuni, delle convenzioni, delle modalità condivise di interazione tra sistemi, ciò sarebbe costruttivo e vantaggioso, sia per rafforzare il settore dell’i.a., sia per colmare reciprocamente, tra i vari sistemi, una parte dei rispettivi limiti e difetti.

La prematurità.

La questione che sto per descrivere è quella che considero la più importante di tutto l’articolo ed è stata la riflessione principale che mi ha dato lo spunto per scriverlo. Parto con una metafora. Supponiamo che io sia un pessimo scolaro, che non abbia acquistato i libri di testo e che a scuola abbia preso pochi appunti sui quaderni e li abbia presi perdipiù in modo impreciso e disomogeneo. Se mi riduco la sera prima dell’interrogazione a dover studiare e imparare rapidamente gli argomenti, alla meno peggio, potrei riprendere i miei appunti ma magari capirei ben poco. Potrei allora affidarmi ad un sistema di i.a. che, istruito sulla base di campioni di appunti scolastici presi bene, mi aiuti a riordinare gli appunti e, forse, recuperare le parti mancanti che non ho annotato. Il risultato finale molto probabilmente sarebbe mediocre ma arriverei a prendere la sufficienza. Uscendo fuori dalla metafora, faccio il parallelo con gli applicativi informatici tradizionali e - pur non volendo rischiare di fare di tutta l’erba un fascio - ho come l’impressione che in questo ambito il mondo pulluli di prodotti mediocri, che non sono stati sviluppati seguendo modelli, buone pratiche e regole consolidate e che sono diversissimi tra loro, chiusi, isolati e pure abbastanza difettosi. Gli utenti finali, a forza di abitudine, magari non ci fanno caso e transeat. Ma molti degli addetti ai lavori sembrano (volutamente?) ignorare questa palese realtà. L’intelligenza artificiale, semplicisticamente parlando, è il passo successivo rispetto ai modelli classici dell’informatica (deterministici e schematici) ed il mondo della ricerca ha dignitosamente seguito il giusto iter, ossia ha fatto maturare il primo passo abbastanza da passare ad occuparsi del secondo. Larga parte del mondo produttivo, invece, a mio parere non ha fatto maturare il primo passo e quindi non capisco con quale credibilità ed affidabilità voglia “rivoluzionarsi” con l’i.a., allo stesso modo in cui lo studente che non ha fatto per niente bene i compiti voglia sbalordire l’insegnante tentando di truccare la propria preparazione. Un’azienda, ad esempio, se ha approcciato male l’informatica classica, farà lo stesso con l’i.a. Potrebbero coesistere, nello stesso contesto aziendale, dei comparti che lavorano con l’informatica classica fatta male che invidiano altri comparti ai quali viene data in dotazione l’i.a. ma che a sua volta non funziona bene lo stesso. Qualche manager potrebbe avere l’idea di rimpiazzare settori mal informatizzati o mal organizzati con sistemi basati sull’i.a. e scommetto che non funzionerebbero ugualmente oppure risolverebbero vecchi problemi e ne creerebbero una quantità pari o superiore di nuovi. Tornando alla metafora, se lo studente non impara prima a prendere bene gli appunti, non sarà mai in grado, nemmeno con i trucchi più sofisticati, di essere abbastanza preparato da poter rispondere compiutamente a qualsiasi domanda durante l’interrogazione. Questa problematica dell’approccio risulta ancora più marcata nel campo dell’automazione e della robotica, ossia nella tanto paventata era in cui il lavoratore - anche nel settore terziario - sarà rimpiazzato totalmente dai robot e/o dall’i.a. I robot automatizzano procedure tangibili (manipolazione fisica di oggetti) o intangibili (come i software) ma se tali procedure fin dall’origine sono state mal concepite e sono inefficienti e fallaci, tendenzialmente i robot saranno poco d’aiuto perché serviranno solo ad aumentare la velocità e diminuire gli errori occasionali. Paradossalmente, un procedimento mal concepito viene quotidianamente e costantemente rettificato e sanato dall’intervento umano (entro certi limiti), cosa che un robot non potrebbe fare e farebbe quindi fallire l’attività lavorativa, ma di certo più velocemente rispetto all’essere umano. Se “Mario Rossi” falliva in un’ora - salvo evitarlo in corsa grazie ad esperienza e conoscenza - i robot potranno fallire, chessò, in appena due minuti ma inevitabilmente! Penso anche alla burocrazia, per raccontare un altro esempio e ritornare all’i.a.. Se un manager al giorno d’oggi volesse rimpiazzare un burocrate con una macchina basata sull’i.a., oltre a dover fare i conti con tutti i limiti che ho descritto nei precedenti paragrafi (che peraltro non sono esaurienti), dovrebbe fare i conti con procedimenti burocratici che funzionano malissimo. L’i.a. non può colmare i difetti di una pessima organizzazione, che si riflette sul sistema informativo (e viceversa), ma può sostituirsi in parte all’intelletto umano qualora abbia solide basi su cui muoversi. Invento uno scenario. Si tratta del rilascio di un certificato, per il quale attualmente si fa così: ci si reca presso l’ente, ci si fa riconoscere, si riempiono dei moduli, si paga l’eventuale imposta e poi si riceve la stampa di un documento. Di punto in bianco si vuole introdurre l’.i.a., ma in che modo? Supponiamo che lo si faccia creando degli assistenti virtuali che riconoscono l’utente, guidano alla compilazione di moduli, fanno firmare, fanno pagare eccetera. A parte costi esorbitanti e tempi indefiniti per sviluppare una procedura di tale complessità, alla fine saranno tanti e tali gli errori e i difetti che non sarebbe abbastanza efficiente da giustificare la propria esistenza. A quel punto i peggiori manager, anziché ravvedersi e tornare indietro sui propri passi, costringerebbero i tecnici a far funzionare tutto bene, sperperando altro denaro e cercando di nascondere i fallimenti con metodi poco dignitosi. Se invece, al posto di tali approcci sconsiderati, prima di introdurre l’i.a. si rivisitasse il processo burocratico informatizzandolo adeguatamente alla maniera tradizionale, a quel punto l’intelligenza artificiale potrebbe servire solo in modo limitato e mirato (ad esempio come assistente vocale di supporto in tema di “accessibilità” oppure per verificare dei requisiti) o addirittura potrebbe non servire affatto perché si potrebbe creare un processo con il quale un individuo faccia tutto da casa con la propria firma digitale, interfacciandosi con un banale sito web. Ricapitolando, quando la base su cui implementare l’i.a. è poco solida e matura, questa fallisce ossia se non prima si rende virtuosa l’organizzazione preesistente e la relativa infrastruttura informatica classica, applicare l’i.a. è una scelta prematura e sconsigliabile: altro che lavoratori rimpiazzati, forse farebbe rimpiazzare i manager!

Proposte a breve termine per applicazioni di i.a.

Tirate le somme di queste mie premesse, ritengo che l’i.a. vada bene, associata ad altre forme di operatività, per far fronte a specifiche e circoscritte esigenze (non per qualsiasi cosa) ed assistita dall’uomo ove necessario. Va benissimo per guidare un robot che fa le pulizie, oppure per indovinare preferenze e avanzare proposte commerciali, oppure per fare previsioni su cui basare scelte non estremamente strategiche, oppure va bene per il gioco degli scacchi, oppure per coadiuvare un professionista (medico, avvocato, ricercatore, etc.) nell’esplorare e incrociare in modo rapido e capillare alcune fonti di conoscenza così da estrapolare rapidamente contenuti di interesse, … Via discorrendo ci sono innumerevoli altre casistiche. Ma cosa accomuna tutte queste? Il fatto che si tratta di campi di applicazione non rischiosi oppure di campi di applicazione in cui, ove presente del rischio, siano solo di supporto all’essere umano che poi prende la decisione finale. Per fare un esempio, ho saputo di un istituto di credito che fa apporre ai clienti, in presenza dell’impiegato di banca, una firma grafometrica con controllo automatico di validità (intesa come verifica di corrispondenza con la firma originale). Ebbene, a quanto pare il controllo è bloccante e qualche volta disconosce firme autentiche. Se il sistema si limitasse invece solo a segnalare all’impiegato eventuali anomalie, senza essere bloccante, sarebbe molto più d’aiuto.

Unica eccezione che mi sento di ammettere, come caso limite, è l’uso dell’i.a. autonoma ove non sia possibile l’ausilio dell’essere umano. Ad esempio (non so fino a quanto sia verosimile ma è giusto per rendere l’idea) se su un aereo civile di linea, pilota e copilota durante il volo dovessero avere un malore, l’azione di un pilota automatico, sia pure con tutti i rischi del caso, potrebbe diventare l’unica salvezza per i passeggeri.

Quindi, nel breve termine, a mio avviso conviene utilizzare l’i.a. nei casi in cui tanto maggiore sia l’autonomia della “macchina” (ossia l’assenza dell’uomo) quanto minore sia il rischio che si corre e viceversa. Dati C “convenienza”, A “autonomia” e R “rischio”, la formula è C = 1 - (A * R), dove tutte le variabili sono numeri reali compresi tra 0 a 1 e la convenienza nell’utilizzo dell’i.a. si ha quando C > 0,5 (N.d.A. ammetto che ho enunciato un concetto banale, ma ho sempre sognato di poter scrivere un concetto banale come se ne leggono in tanti articoli e poi scrivere pure la formula banale del concetto banale!).

Proposte a medio o lungo termine per applicazioni di i.a.

Innanzitutto propongo, al di là dell’i.a., di migliorare e diffondere maggiormente cultura e sensibilità sull’informatica, sia tra gli sviluppatori che, soprattutto, tra i manager, per ottenere dei prodotti finali che risultino efficaci, efficienti, conformi alle regole, alle buone pratiche ed anche predisposti per l’interazione con altri sistemi (ad esempio attraverso le API open data). Questo sarebbe il terreno fertile sul quale ampliare gli sviluppi anche in direzione dell’i.a..

Per quanto riguarda invece l’intelligenza artificiale, propongo che, al fine di aumentare la soglia di autonomia di questi sistemi, anche in contesti di maggior rischio, si inizi a mettere insieme le forze di tutti i produttori, assumendo precise iniziative, due delle quali sorgono in modo naturale da tutte le considerazioni che ho effettuato in questo articolo:

Così facendo, unendo le conoscenze, si aprono le porte al progressivo superamento di buona parte dei problemi di equivoci, inesperienza ed inaffidabilità.

Su quest’ultima proposta mi rendo conto che subentrino problemi di riservatezza ed altre implicazioni sulla sicurezza ma credo che si possa vincere la sfida di tramutare informazioni specifiche in altre generiche ed anonime, senza perderne il valore intrinseco. Ne vale la pena perché immaginare l’intelligenza artificiale come un modello che imiti in tutto e per tutto la copia sbiadita di un singolo cervello umano potrebbe risultare molto limitante mentre avere a disposizione un mega cervello dato dall’unione e dalla combinazione di conoscenze ed esperienze di moltitudini di sistemi di i.a. che sembrino uno solo, può davvero rivoluzionare questo campo e aiutare a superare alcuni limiti della singolarità degli individui umani con le virtù di una collettività unita e cooperante, se pure immateriale ed artificiale.