Informazione

Che cos'è l'intelligenza artificiale spiegabile ed è necessaria?

Che cos'è l'intelligenza artificiale spiegabile ed è necessaria?

Explainable Artificial Intelligence-XAI è un argomento che è stato spesso dibattuto negli ultimi anni ed è oggetto di contraddizioni. Prima di discutere l'affidabilità dell'intelligenza artificiale (AI), se l'intelligenza artificiale sta cercando di modellare il nostro pensiero e il nostro processo decisionale, dovremmo essere in grado di spiegare come prendiamo davvero le nostre decisioni! Non è vero?

CORRELATI: L'INTELLIGENZA ARTIFICIALE E LA PAURA DELL'IGNOTO

C'è una trasformazione dell'apprendimento automatico che è andata avanti a volte più velocemente e talvolta più lentamente dagli anni '50. Nel recente passato, l'area più studiata e sorprendente è l'apprendimento automatico, che mira a modellare il sistema decisionale, il comportamento e le reazioni.

I risultati positivi ottenuti nel campo del machine learning hanno portato ad un rapido aumento nell'implementazione dell'AI. Il lavoro avanzato promette di essere sistemi autonomi capaci di auto-percezione, apprendimento, processo decisionale e movimento.

CORRELATI: 13 SITI GRATUITI PER OTTENERE UN'INTRODUZIONE ALL'APPRENDIMENTO MACCHINARIO

Soprattutto dopo gli anni '90, il concetto di apprendimento profondo si basa sul passato, ma le reti neurali ricorsive, le reti neurali convoluzionali, l'apprendimento per rinforzo e le reti controverse hanno un notevole successo. Sebbene si ottengano risultati positivi, è inadeguato spiegare o spiegare le decisioni e le azioni di questi sistemi agli utenti umani.

Portata dell'intelligenza artificiale spiegabile

I modelli di deep learning progettati con centinaia di milioni di reti neurali artificiali stratificate non sono infallibili. Possono perdere rapidamente la loro credibilità, soprattutto quando vengono semplicemente fuorviati come nel caso di un attacco di un pixel! Allora diventa inevitabile chiedersi quanto successo o meno!

Il Dipartimento della Difesa (DoD) afferma che i sistemi più intelligenti, autonomi e simbiotici stanno affrontando delle sfide.

"L'intelligenza artificiale spiegabile, in particolare l'apprendimento automatico spiegabile, sarà essenziale se i futuri combattenti devono comprendere, fidarsi adeguatamente e gestire efficacemente una generazione emergente di partner di macchine artificialmente intelligenti".

La complessità di questo tipo di applicazioni avanzate aumenta con i successi e la comprensione-spiegabilità diventa difficile. Anche in alcune conferenze, ci sono solo sessioni in cui viene discusso questo argomento.

Le ragioni dei nuovi sistemi di machine / deep learning

Ha lo scopo di spiegare le ragioni dei nuovi sistemi di machine / deep learning, di determinarne i punti di forza e di debolezza e di capire come comportarsi in futuro. La strategia per raggiungere questo obiettivo è sviluppare tecniche di apprendimento artificiale nuove o modificate che produrranno modelli più definibili.

Questi modelli sono pensati per essere combinati con tecniche di interfaccia interattiva uomo-computer all'avanguardia, che possono convertire i modelli in dialoghi di spiegazione comprensibili e utili per l'utente finale.

Con tre aspettative di base, si desidera avvicinarsi al sistema:
▪. Spiegare lo scopo alla base di come le parti che progettano e utilizzano il sistema sono influenzate.
▪. Spiegare come vengono utilizzate le origini dati e i risultati.
▪. Spiega come gli input di un modello AI portano agli output.

"XAI è uno dei pochi programmi DARPA attuali che si prevede abiliteranno i sistemi di intelligenza artificiale della terza ondata in cui le macchine comprendono il contesto e l'ambiente in cui operano e nel tempo costruiscono modelli esplicativi sottostanti che consentano loro di caratterizzare i fenomeni del mondo reale . "

Se partiamo dalla pratica medica, dopo aver esaminato i dati del paziente, entrambi i medici dovrebbero comprendere e spiegare al paziente che ha proposto al paziente interessato il rischio di un attacco di cuore su raccomandazione del sistema di supporto decisionale.

In questa fase, in primo luogo, quali dati vengono valutati è un altro criterio importante. È anche importante identificare quali dati sono necessari e cosa deve essere fatto per una corretta valutazione.

La psicologia della spiegazione

Diamo un'occhiata al punto in cui ci rifiutiamo di utilizzare la tecnologia di apprendimento artificiale perché non possiamo spiegare in che modo l'intelligenza artificiale dà la sua decisione. D'altra parte, così tante persone non possono davvero spiegare come hanno preso la decisione!

Immaginiamo come una persona sia giunta a una decisione a livello di modello: quando ci avviciniamo alla nostra struttura biologica a livello chimico e fisico, stiamo parlando di segnali elettrici da una cellula cerebrale a un'altra cellula cerebrale. Se non sarai soddisfatto di questa spiegazione, dimmi come hai deciso di ordinare un caffè!

Quando uno dei tuoi amici ha ordinato un caffè freddo, l'altro ha ordinato un caffè caldo e l'altro ordina una tazza di tè in un bar. Perché scelgono caffè freddo e caffè caldo? Qualcuno può spiegare la chimica e le sinapsi nel cervello? Puoi spiegare? Vuoi una spiegazione del genere? Sai che cos'è? Un umano sta iniziando a inventare una storia su come decide! Si spera che ascolterai una storia fantastica, provala!

Guarda i tuoi dati di input e output e poi racconta una storia divertente! In effetti, esiste un approccio simile a questioni analitiche e importanti. Interpretazioni, trasparenza e chiarezza sono analitiche e le analisi senza test sono come un biglietto del treno di sola andata che provoca un senso di sicurezza.

In perfette condizioni;
▪, un sistema che produce le migliori prestazioni,
▪. Vuoi la migliore spiegazione.

Ma la vita reale ci costringe a scegliere.

Prestazioni vs spiegabilità

Interpretazione: Hai capito, ma non funziona bene!

Prestazione: Non capisci ma funziona bene!

Soprattutto gli accademici, i ricercatori e le aziende tecnologiche generalmente non presteranno molta attenzione nella misura in cui daranno maggiore importanza alle prestazioni. Tuttavia, lo scenario con le persone e le istituzioni coinvolte nel settore è leggermente diverso. Vogliono fidarsi e aspettano una spiegazione.

Gli approcci di intelligenza artificiale differiscono per banche, compagnie assicurative, operatori sanitari e altri settori diversi. Questo perché i modelli per questi settori comportano normative legali e requisiti etici diversi. In questo caso, arriviamo di nuovo allo stesso punto. Se vuoi che il tuo sistema venga spiegato nelle seguenti condizioni, dovrai sostituirlo con quello più semplice e non troppo potente, per ora!

La ricerca su questo argomento è principalmente DARPA, Google, DeepMind e così via. Mentre le istituzioni continuano ad essere portate avanti in modo intensivo, si capisce dalle relazioni; Indipendentemente dal settore e da chi viene utilizzato dai sistemi di intelligenza artificiale, esiste una tale relazione tra chiarezza e accuratezza che un compromesso è inevitabile e sembra continuare per un po '.

Dopotutto, l'IA non dovrebbe essere trasformata in un potere divino che saremo portati a perseguire senza stabilire una relazione causa-effetto. D'altra parte, non dovremmo ignorare le informazioni che ci verranno fornite.

Fondamentalmente, dobbiamo pensare a creare modelli flessibili e interpretabili che possano lavorare insieme in armonia con gli esperti che hanno conoscenze a livello tecnico e accademico e le opinioni di diversi settori e discipline.

Grazie

Un ringraziamento speciale a Başak Buluz, Yavuz Kömeçoğlu e Hakan Aydemir per il loro feedback.


Guarda il video: Ernesto Burgio + Daniela Lucangeli. La lunga crisi e la difficile rinascita occidentale. KUM19 (Gennaio 2022).