Declaración final

artificialintelligence2016

La Pontificia Academia de Ciencias celebró un simposio internacional del 30 de noviembre al primero de diciembre 2016 sobre “Poder y límites de la inteligencia artificial”.

En la década pasada, la ciencia de la computación, la robótica y la inteligencia artificial (IA) han realizado progresos considerables. Estas tecnologías son promisorias para encarar algunos de nuestros problemas sociales, económicos y medio-ambientales más acuciantes, pero también forman parte de una automatización a largo plazo cuyas consecuencias podrían comprometer el lugar que ocupa el ser humano en la sociedad. En consecuencia, nuestro comité pasó revista a las tendencias actuales de la investigación en IA , su utilidad potencial y sus peligros y formuló una serie de recomendaciones.

Tendencias actuales. Está en curso una considerable investigación en áreas que nos definen en tanto seres humanos como el lenguaje, el procesamiento de símbolos, el aprendizaje inmediato, la auto-evaluación, el juicio certero, la inducción de programas, proponer objetivos e integrar los módulos existentes en un arquitectura abarcativa y multipropósito. Aunque el progreso es impresionante no existe evidencia alguna sobre la emergencia inminente de una inteligencia descontrolada con una voluntad propia. La inteligencia artificial está muy lejos de la inteligencia humana y carece de un encuadre matemático abarcativo.

Beneficios. Cuando la IA se usa como instrumento tiene capacidad de hacer progresar todas las áreas de la ciencia y de la sociedad. Nos puede ayudar a superar nuestras limitaciones cognitivas y a resolver problemas complejos como la gestión de la energía y de la ecología, donde la enorme cantidad de datos representa un desafío para la comprensión humana. En combinación con la robótica y con interfaces cerebro-computadora podrá provocar avances considerables en medicina y en asistencia. Al elucidar cómo aprendemos podrá aportar cambios radicales en educación. También podrá ayudar a los científicos a comprender la naturaleza de la inteligencia, la organización del universo y nuestro lugar en él.

Peligros. Si la IA no se canaliza hacia el beneficio público traerá pronto problemas importantes para la economía y la sociedad. Estamos viviendo un drástico período de transición donde millones de trabajos se están perdiendo por causa de los equipos computarizados, lo que provoca un crecimiento en la disparidad de ingresos y en la brecha de conocimientos. Con el uso de la IA en las fuerzas armadas, podríamos asistir a una nueva y costosa carrera armamentística. Si bien la asistencia inteligente puede beneficiar tanto a adultos como a niños también ello puede ser riesgoso puesto que su impacto en el desarrollo cerebral no se conoce y podría hacer que las personas perdieran motivación en las áreas donde la IA es superior.

Recomendaciones. El esfuerzo para desarrollar máquinas inteligentes debe estar dirigido constantemente al bien mayor, reduciendo la brecha de pobreza y tratando las necesidades generales de salud, educación, felicidad y sustentabilidad. Se debe alertar a todos los gobiernos que estamos ante una revolución de gran magnitud y que debemos tomar nuevas medidas para gestionarla. Los científicos e ingenieros, en tanto diseñadores tienen una responsabilidad fundamental en asegurar que sus tecnologías sean seguras y se usen con buenos propósitos. Son bienvenidas las iniciativas de algunas compañías para crear comisiones de ética y de seguridad y para asociarse a organizaciones sin fines de lucro con el fin de establecer las mejores prácticas y medidas en la implementación beneficiosa de la IA. También recomendamos que comisiones civiles externas realicen evaluaciones periódicas de todas las tecnologías, incluyendo las militares. Se requiere prestar especial atención a aquellas funciones con valores que la IA debe optimizar en tanto pudiesen dar lugar a desviaciones inesperadas o a consecuencias inhumanas. De la misma forma que se realizan pruebas de colisiones en el transporte se deben aprobar pruebas éticas y de seguridad para evaluar el impacto social o el prejuicio racial como prerrequisitos para lanzar un software de IA.

FIRMATARIOS

Prof. Werner Arber
President of the Pontifical Academy of Sciences; Biozentrum, Department of Microbiology University of Basel, Basel (Switzerland)

Prof. Antonio M. Battro
Academia Nacional de Educación (Argentina)

Prof. Olaf Blanke
Laboratory of Cognitive Neuroscience, Brain-Mind Institute, Ecole Polytechnique Fédérale de Lausanne (EPFL) Lausanne (Switzerland)

Prof. Patricia Churchland
University of California, San Diego, CA (USA)

Prof. Stanislas Dehaene
Collège de France, Paris; and Inserm-CEA, Cognitive Neuroimaging Unit, CEA/SAC/DSV/DRM/NeuroSpin, Gif sur Yvette (France)

Prof. John Donoghue
Henry Merritt Wriston Professor, Brown University, Department of Neuroscience, Providence, Rhode Island (USA)

Prof.Demis Hassabis,
Google DeepMind, University College London and University of Cambridge (UK)

Prof. Stephen W. Hawking
University of Cambridge, Department of Applied Mathematics and Theoretical Physics, Cambridge (UK)

Prof. Yann LeCun
Director of AI Research, Facebook; Silver Professor of Computer Science, Neural Science, and Electrical and Computer Engineering, New York University, NY (USA)

Prof. Pierre Léna
Académie des Sciences, and Fondation La Main à la Pâte (France)

Prof. Laurie Ann Paul
University of North Carolina at Chapel Hill, Department of Philosophy, Chapel Hill, North Carolina (USA)

Prof. Alexandre Pouget
Université de Genève, Department of Basic Neurosciences, (Switzerland)

H.E. Msgr. Marcelo Sánchez Sorondo
Chancellor, The Pontifical Academy of Sciences (Vatican City)

Prof. Elizabeth Spelke
Harvard University, Department of Psychology, Cambridge, MA (USA)

Prof. Laura Schulz
Massachusetts Institute of Technology, Department of Brain and Cognitive Sciences, Cambridge, MA (USA)

Prof. Mariano Sigman
Universidad Torquato Di Tella, Laboratorio de Neurociencia Integrativa (Argentina)

Prof. Wolf J. Singer
Max-Planck-Institute for Brain Research, Frankfurt am Main (Germany)

Prof. Elizabeth Spelke
Harvard University, Department of Psychology, Cambridge, MA (USA)

Prof. Josh Tenenbaum
Massachusetts Institute of Technology, Department of Brain and Cognitive Sciences, Cambridge, MA (USA)

Prof. Manuela Veloso
Carnegie Mellon University, Head, Machine Learning Department, School of Computer Science, Pittsburgh, PA (USA)

Prof. Cédric Villani
Institut Henri Poincaré (UPMC/CNRS), Paris (France)

 

Related

Power and Limitations of Artificial Intelligence

Workshop 30 November - 1 December 2016 – One of the key issues today concerns the place of the... Read more

Final Statement

On November 30th and December 1st 2016, the Pontifical Academy of Sciences hosted an international... Read more

Power and Limits of Artificial Intelligence

Proceedings of the Workshop Power and Limits of Artificial Intelligence 30 November-1 December... Read more