Dichiarazione finale del Workshop: Potere e limiti dell'Intelligenza Artificiale

artificialintelligence2016

Il 30 novembre e il 1° dicembre 2016 si è svolto, presso la Pontificia Accademia delle Scienze, un simposio internazionale su «Potere e limiti dell'intelligenza artificiale».

Nell'ultimo decennio, l'informatica, la robotica e l'intelligenza artificiale (IA) hanno compiuto progressi notevoli. Grazie a queste tecnologie alcuni dei nostri problemi sociali, economici e ambientali più intrattabili potrebbero essere risolti; tuttavia, il percorso a lungo termine verso l'automazione potrebbe mettere in discussione il posto degli esseri umani nella società. Il simposio ha quindi esaminato le attuali tendenze della ricerca sull'intelligenza artificiale, la sua potenziale utilità e i suoi pericoli e ha formulato una serie di raccomandazioni.

Trend attuali. Sono in corso importanti ricerche nei settori che caratterizzano l'essere umano, quali il linguaggio, l'elaborazione dei simboli, l'apprendimento instantaneo (one-shot learning), l'autovalutazione, il giudizio di fiducia, l'induzione del programma, gli obiettivi di concepimento e l'integrazione dei moduli esistenti in un'architettura intelligente globale e multiuso. Sebbene i progressi siano impressionanti, nessun test suggerisce l'imminente emergere di un'intelligenza di fuga con una volontà propria. L'intelligenza artificiale rimane lontana dall'essere umano e manca di un quadro matematico generale.

Benefici. Utilizzata come toolkit, l'intelligenza artificiale ha il potenziale di far progredire tutti i campi della scienza e della società. Ad esempio, potrebbe aiutarci a superare i nostri limiti cognitivi e a risolvere problemi complessi come la gestione dell'energia e dell'ambiente, laddove enormi quantità di dati rappresentano una sfida per la comprensione umana. In combinazione con la robotica e con le interfacce cervello-computer, l'intelligenza artificiale può portare a progressi unici nella medicina e nella sanità. Illustra il modo in cui apprendiamo, può portare a cambiamenti drammatici nell'istruzione. Può anche aiutare gli scienziati a far luce sulla natura dell'intelligenza, sull'organizzazione dell'universo e sul nostro posto in esso.

Pericoli. A meno che non venga incanalato per beneficio pubblico, l'intelligenza artificiale susciterà presto importanti preoccupazioni per l'economia e la stabilità della società. Stiamo vivendo un periodo di transizione drastica in cui milioni di posti di lavoro vengono persi a causa di dispositivi computerizzati, con un conseguente aumento della disparità di reddito e delle lacune nella conoscenza. Con l'intelligenza artificiale nelle mani delle aziende, le entrate dell'intelligence potrebbero non essere più ridistribuite equamente. Con l'IA in campo militare, potremmo assistere a una nuova e costosa corsa al braccio. Mentre gli assistenti intelligenti possono essere utili sia agli adulti che ai bambini, comportano anche rischi perché il loro impatto sullo sviluppo del cervello è sconosciuto e perché le persone possono perdere la motivazione in aree in cui l'IA è superiore.

Raccomandazioni. Lo sforzo di sviluppare macchine intelligenti deve rimanere continuamente diretto al bene superiore, riducendo il divario di povertà e affrontando le esigenze generali di salute, istruzione, felicità e sostenibilità. Tutti i governi dovrebbero essere avvisati che è in atto una grande rivoluzione industriale e che devono adottare nuove misure per gestirla. Scienziati e ingegneri, in quanto progettisti di dispositivi di intelligenza artificiale, hanno una responsabilità primaria nel cercare attivamente di garantire che le loro tecnologie siano sicure e utilizzate per buoni scopi. Accogliamo con favore le iniziative di alcune aziende per creare comitati etici e di sicurezza interni e unire le organizzazioni senza scopo di lucro che mirano a stabilire le migliori pratiche e standard per il dispiegamento vantaggioso dell'IA. Chiediamo inoltre che i consigli civili esterni eseguano una valutazione ricorrente e trasparente di tutte le tecnologie, compresi i militari. Le funzioni di valore che l'IA è chiamata a ottimizzare richiedono un'attenzione particolare, in quanto potrebbero avere distorsioni impreviste o conseguenze disumane. Proprio come i crash test per il trasporto, il superamento di test etici e di sicurezza, valutando ad esempio l'impatto sociale o il pregiudizio razziale, potrebbe diventare un prerequisito per il rilascio del software AI.On November 30th and December 1st 2016, the Pontifical Academy of Sciences hosted an international symposium on « Power and limits of artificial intelligence ».

In the past decade, computer science, robotics, and artificial intelligence (AI) have made remarkable progress. Those technologies hold great promise to address some of our most intractable social, economic and environmental problems, but they are also part of a long-term trend towards automatization, with consequences that may ultimately challenge the place of humans in society. This committee therefore reviewed the current trends of AI research, its potential utility and dangers, and formulated a number of recommendations.

Current trends. Major research is underway in areas that define us as humans, such as language, symbol processing, one-shot learning, self-evaluation, confidence judgment, program induction, conceiving goals, and integrating existing modules into an overarching, multi-purpose intelligent architecture. While progress is impressive, no evidence suggests the imminent emergence of a run-away intelligence with a will of its own. Artificial intelligence remains far from human and lacks an overarching mathematical framework.

Benefits. Used as a toolkit, AI has the potential to advance every area of science and society. It may help us overcome our cognitive limitations and solve complex problems such as energy management and ecology, where vast amounts of data present a challenge to human understanding. In combination with robotics and brain-computer interfaces, it may bring unique advances in medicine and care. By elucidating how we learn, it may bring dramatic changes in education. It may also help scientists shed light on the nature of intelligence, the organization of the universe, and our place in it.

Dangers. Unless channeled for public benefit, AI will soon raise important concerns for the economy and the stability of society. We are living in a drastic transition period where millions of jobs are being lost to computerized devices, with a resulting increase in income disparity and knowledge gaps. With AI in the hands of companies, the revenues of intelligence may no longer be redistributed equitably. With AI in the military, we may witness a new and costly arm race. While intelligent assistants may benefit adults and children alike, they also carry risks because their impact on the developing brain is unknown, and because people may lose motivation in areas where AI is superior.

Recommendations. The effort to develop intelligent machines must remain continuously directed to the greater good, reducing the poverty gap and addressing general needs for health, education, happiness and sustainability. All governments should be alerted that a major industrial revolution is underway and must take new measures to manage it. Scientists and engineers, as the designers of AI devices, bear a primary responsibility in actively trying to ensure that their technologies are safe and used for good purposes. We welcome the initiatives of some companies to create in-house ethical and safety boards, and to join non-profit organizations that aim to establish best practices and standards for the beneficial deployment of AI. We also call for external civil boards to perform recurrent and transparent evaluation of all technologies including the military. The value functions that AI is asked to optimize require special attention, as they may have unexpected biases or inhuman consequences. Just like crash tests for transportation, the passing of ethical and safety tests, evaluating for instance social impact or racial prejudice, could become a prerequisite to the release of AI software.

FIRMATARI

Prof. Werner Arber
President of the Pontifical Academy of Sciences; Biozentrum, Department of Microbiology University of Basel, Basel (Switzerland)

Prof. Antonio M. Battro
Academia Nacional de Educación (Argentina)

Prof. Olaf Blanke
Laboratory of Cognitive Neuroscience, Brain-Mind Institute, Ecole Polytechnique Fédérale de Lausanne (EPFL) Lausanne (Switzerland)

Prof. Patricia Churchland
University of California, San Diego, CA (USA)

Prof. Stanislas Dehaene
Collège de France, Paris; and Inserm-CEA, Cognitive Neuroimaging Unit, CEA/SAC/DSV/DRM/NeuroSpin, Gif sur Yvette (France)

Prof. John Donoghue
Henry Merritt Wriston Professor, Brown University, Department of Neuroscience, Providence, Rhode Island (USA)

Prof.Demis Hassabis,
Google DeepMind, University College London and University of Cambridge (UK)

Prof. Stephen W. Hawking
University of Cambridge, Department of Applied Mathematics and Theoretical Physics, Cambridge (UK)

Prof. Yann LeCun
Director of AI Research, Facebook; Silver Professor of Computer Science, Neural Science, and Electrical and Computer Engineering, New York University, NY (USA)

Prof. Pierre Léna
Académie des Sciences, and Fondation La Main à la Pâte (France)

Prof. Laurie Ann Paul
University of North Carolina at Chapel Hill, Department of Philosophy, Chapel Hill, North Carolina (USA)

Prof. Alexandre Pouget
Université de Genève, Department of Basic Neurosciences, (Switzerland)

H.E. Msgr. Marcelo Sánchez Sorondo
Chancellor, The Pontifical Academy of Sciences (Vatican City)

Prof. Elizabeth Spelke
Harvard University, Department of Psychology, Cambridge, MA (USA)

Prof. Laura Schulz
Massachusetts Institute of Technology, Department of Brain and Cognitive Sciences, Cambridge, MA (USA)

Prof. Mariano Sigman
Universidad Torquato Di Tella, Laboratorio de Neurociencia Integrativa (Argentina)

Prof. Wolf J. Singer
Max-Planck-Institute for Brain Research, Frankfurt am Main (Germany)

Prof. Elizabeth Spelke
Harvard University, Department of Psychology, Cambridge, MA (USA)

Prof. Josh Tenenbaum
Massachusetts Institute of Technology, Department of Brain and Cognitive Sciences, Cambridge, MA (USA)

Prof. Manuela Veloso
Carnegie Mellon University, Head, Machine Learning Department, School of Computer Science, Pittsburgh, PA (USA)

Prof. Cédric Villani
Institut Henri Poincaré (UPMC/CNRS), Paris (France)

 

Collegamenti

Potere e limiti dell'Intelligenza Artificiale

Workshop 30 novembre - 1 dicembre 2016 – Oggigiorno una delle questioni fondamentali riguarda il... Continua

Power and Limits of Artificial Intelligence

Proceedings of the Workshop Power and Limits of Artificial Intelligence 30 November-1 December... Continua

Declaración final

La Pontificia Academia de Ciencias celebró un simposio internacional del 30 de noviembre al primero... Continua

Déclaration sur l'Intelligence Artificielle

La science informatique, la robotique et l'intelligence artificielle ont fait des progrès... Continua