Intelligenza artificiale, fino a dove? L’eccezionale sviluppo della tecnologia ci pone una serie di inquietanti interrogativi

Nel corso della serie cinematografica Iron Man, in una scena molto significativa viene mostrato il tentativo del governo statunitense di appropriarsi della tecnologia che sta alla base dell’armatura sviluppata da Tony Stark. L’armatura, un avanzatissimo insieme di tecnologia bellica e intelligenza artificiale, viene considerata per quello che è, ossia un’arma di distruzione assai più progredita rispetto al livello raggiunto dall’industria bellica, dagli esiti potenzialmente distruttivi se posseduta da chi intende servirsene per scopi inopportuni. La risposta di Stark è indicativa: al rifiuto di cedere la propria tecnologia, il miliardario aggiunge l’affermazione per cui egli «ha privatizzato con successo la pace nel mondo». La scena solleva una serie di problematiche, anche di natura etica. In questi anni lo sviluppo dell’intelligenza artificiale ha effettuato progressi notevoli, che si prevede aumenteranno consistentemente nel prossimo periodo. Gli scienziati si chiedono quindi fino a che limiti potrà spingersi l’autonomia della macchina: è possibile che una macchina scriva un romanzo, un’opera teatrale, possa sostenere una conversazione creativa? In realtà questo già avviene, grazie a software avanzati, ma anche a un livello quotidiano, con i sistemi di interazione vocale installati ormai in ogni smartphone. In aggiunta, è cosa nota che i sistemi di polizia adoperato dispositivi di riconoscimento facciale, sostenuti dalle reti di videocamere installate in luoghi pubblici. Quali sono i limiti di questo utilizzo, e, soprattutto, chi li determina? Un problema si pone, per esempio, rispetto alla progettazione di armi “intelligenti”, in grado di colpire obiettivi “autonomamente”, sulla base dei dati di riconoscimento. Ma se lo sviluppo della tecnologia bellica giungesse al punto da creare armi in grado di condurre operazioni su larga scala e di elevatissimo impatto, senza il coinvolgimento umano? Se una macchina potesse compiere azioni lesive dell’integrità umana, bypassando le leggi di Asimov, come andrebbe valutata la responsabilità? Chi sarebbe responsabile delle azioni compiute dalle macchine? Si potrebbe dire il loro creatore, oppure colui che le ha programmate, oppure ancora l’ente che ha dato mandato a quelle macchine di operare. È chiaro che il sistema legislativo non prevede (ancora) codici di comportamento per le macchine. Ma è anche da notare un dato preoccupante: lo sviluppo tecnologico è estremamente oneroso. La conseguenza sarebbe che, mentre sinora le dinamiche belliche sono state per lo più gestite sulla base della deterrenza, nel momento in cui un’entità in gioco, assai più ricca delle altre, disponesse di armi tanto superiori, lo squilibrio geopolitico ne sarebbe irrimediabilmente compromesso. Lo sviluppo tecnologico pone questi e altri quesiti; ma in un mondo in rapida evoluzione, è forse bene porsi questi interrogativi prima che coloro che giungeranno a possedere questi dispositivi possano condizionare, e di fatto impedire, ogni forma di dibattito e di controllo.

EffeEmme