Quando l’auto frenò per una foglia (e altri drammi della guida autonoma)
Immaginate una persona al volante di un’auto, in una città congestionata dal solito traffico da “voglio-trasferirmi-su-un’isola-deserta”. All’improvviso quel conducente nota qualcosa in mezzo alla strada e il suo cervello elabora la situazione in un nano secondo (anche meno) e decide che fare. Se è una foglia non c’è problema, non è il caso né di sterzare né tanto meno di rallentare, ma solo di passarci sopra e ammirare nello specchietto retrovisore le volute che farà dopo il passaggio dell’auto. Se invece si tratta di un cane… beh, il cuore della persona ha un sussulto un attimo prima che il suo piede pesti violentemente il pedale del freno, con la speranza che l’auto si fermi senza colpire l’animale. E se fosse un piccione? Ammettiamolo, in questo caso nessuno pensa si tratti di un reale pericolo, la persona manterrà il piede sull’acceleratore, confidando nel talento naturale dei pennuti per l’autoconservazione: di certo si scanseranno in volo all’ultimo secondo.
Questa meravigliosa capacità di distinguere un possibile dramma da una situazione non pericolosa, passando da “allarme rosso” a “lascia perdere” in meno di un battito di ciglia è una dote che il cervello di noi umani sfoggia con nonchalance, ma che per l’intelligenza artificiale delle auto a guida autonoma, è una questione tutt’altro che semplice da affrontare!
Per quanto futuristici e avveniristici, i veicoli a guida autonoma hanno un problema: vedono ostacoli ovunque. Sono come quell’amico ansioso che ha da poco conseguito la patente e che rallenta fin quasi a fermarsi avvicinandosi a ogni possibile situazione di pericolo, anche lieve. Dove un umano proseguirebbe tranquillo, magari canticchiando il pezzo che sta ascoltando alla radio senza percepire alcun pericolo, l’auto assistita alla guida potrebbe frenare di colpo. Perché? Perché ha individuato una terribile minaccia: una foglia sospinta dal vento o una busta della spesa che rotola stancamente verso il centro della carreggiata.
Il risultato? Beh, se la nostra auto intelligente è seguita da vicino da una di vecchia generazione il cui conducente umano magari sta controllando le notifiche sul telefono – situazione piuttosto realistica, purtroppo – la conseguenza è un bel tamponamento. Non solo, ma il colpevole (lasciato il cellulare sul sedile) scende dall’auto e esige spiegazioni sul perché di una frenata senza motivo.
Avete appena assistito a una tragicommedia urbana in cui l’auto senziente è l’interprete troppo scrupolosa. Non è sufficiente che ingegneri e programmatori riempiano di meraviglie tecnologiche le nuove auto, perché più numerose sono le regole, maggiori sono le possibilità che vadano in tilt. E nessun ingegnere può ancora inserire nel pacchetto software delle auto il buon senso proprio degli esseri umani.
Di questo non possiamo certo colpevolizzare i progettisti, non è affatto semplice insegnare alle macchine qualcosa che noi utilizziamo senza nemmeno accorgercene. Fin da bambini affiniamo il nostro buon senso schivando pallonate, evitando di dire alla zia che è ingrassata e scartando ostacoli in bicicletta, rendendoci presto conto che una foglia che ci viene incontro non è quasi mai una minaccia.
Ma non avendo ancora creato i robot positronici di Asimov in grado di ragionare con il libero arbitrio, dobbiamo inventare un metodo per fare comprendere le diverse situazioni alle auto, visto che loro non sono cresciute come noi, che siamo passati con i giusti tempi dall’infanzia all’età adulta. I bambini esplorano il mondo, fanno ipotesi, le testano e magari distruggono qualcosa o si fanno male nel processo. Tutto ciò da adulti si trasforma in esperienza, in un bagaglio innato di conoscenze che ci portiamo dietro per il resto della vita. Sappiamo che un bicchiere di vetro si romperà se cade, che un cane può attraversare la strada e finire sotto le vostre ruote inseguendo una palla e che i piccioni sono vigliacchi cronici pronti al decollo alla minima minaccia. Queste “conoscenze di base” ci permettono di adattarci a situazioni nuove, di improvvisare e, soprattutto, di non impazzire davanti a ogni imprevisto.
Le auto a guida autonoma, invece, funzionano diversamente. Sono addestrate con montagne di dati, analizzano schemi statistici, fanno esperienza in laboratorio ma questo non basta. Non sanno discernere. Sembra che allo stato attuale della tecnologia, la competizione contro un bimbo di 18 mesi sia, per un’auto a guida autonoma, persa in partenza. A 18 mesi tutti noi sappiamo già che un oggetto non scompare magicamente quando passa dietro un altro, sappiamo che gli oggetti solidi non si attraversano e che gli umani pensano e esprimono intenzioni. Un’auto autonoma lo capisce per tutte quelle situazioni in cui glielo abbiamo “insegnato”, ma l’imprevisto? Ecco quindi la ridondanza di prudenza che i progettisti devono per forza inserire.
Eliminiamo ogni dubbio che il tono semi serio di questo articolo potrebbe sollevare: la sicurezza stradale non può essere lasciata al caso. È fondamentale che le tecnologie avanzate, come quelle delle auto autonome, siano progettate con criteri rigorosi e un equilibrio tra prudenza e capacità decisionale. Solo così è possibile garantire che il progresso tecnologico diventi un alleato affidabile nella protezione delle vite umane, affrontando con intelligenza e responsabilità anche le situazioni più complesse e impreviste.
A proposito di situazioni complesse, negli Stati Uniti esiste un’agenzia (la DARPA, Defense Advanced Research Projects Agency) che finanzia progetti super futuristici e che ha lanciato una sfida epocale: creare un’intelligenza artificiale con le capacità cognitive di un neonato. Vi sembra un’inezia? Beh, sviluppatori e scienziati stanno sudando freddo per raggiungere il difficilissimo obiettivo.
Come vincolo, la DARPA ha posto che questi “agenti intelligenti” imparino non con regole pre-programmate, ma osservando e vivendo esperienze virtuali, esattamente come fanno i bambini nei loro primi esperimenti con il mondo. I ricercatori stanno cercando di testare le macchine con gli stessi esperimenti usati sui neonati: scenari che sfidano il loro senso della realtà per vedere se reagiscono come ci aspetteremmo da un essere umano.
A volte – in realtà troppo spesso – noi giornalisti esageriamo e quando un sistema d’intelligenza artificiale supera un test di lettura o di logica, subito urliamo al miracolo, con annunci enfatici: “L’auto con il quoziente intellettivo di un bambino di 4 anni!” o “Presto dormiremo a bordo delle nostre auto in viaggio senza nessuno alla guida!”. Ormai da molti anni esistono programmi che sanno giocare benissimo a scacchi, battendo anche i campioni, ma si tratta di sistemi addestrati esclusivamente per quell’attività, in grado di analizzare in tempi rapidi miliardi di possibili combinazioni ma senza la minima capacità di applicare le stesse competenze a situazioni diverse. Come possono essere quelle incontrate in auto: la foglia, il pedone che arriva all’improvviso, la rotonda o i lavori in corso non segnalati, manovre azzardate di chi ci precede, semafori guasti o un insieme di tutte queste situazioni…
E se anche gli scienziati che lavorano per la DARPA riuscissero a creare un’auto in grado di superare gli stessi test dei neonati, chissà… probabilmente continuerà a fermarsi davanti a un pupazzo di neve a bordo strada, credendolo un orco, un pericolo mortale in procinto di gettarsi contro di noi.
Perché, parliamoci chiaro, chi di voi affiderebbe la propria auto (nonché la propria vita) a un’intelligenza artificiale con le capacità di un bambino di 18 mesi?
Quindi, fino a quando le auto senzienti e autonome non matureranno almeno all’età della patente (ne hanno ancora da studiare!), meglio continuare a guidare noi e utilizzare al meglio gli ottimi strumenti “intelligenti” che abbiamo a disposizione, con una forte dose di buon senso.
E, se incrociate un nugolo di piccioni, mantenete la calma. Loro sanno perfettamente come sopravvivere.
Lascia un Commento
Vuoi partecipare alla discussione?Sentitevi liberi di contribuire!