Dichiarazione finale

statementsobotics2019

Dichiarazione conclusiva della Conferenza su Robotica, Intelligenza Artificiale e Umanità, Scienza, Etica e Politica organizzata congiuntamente dalla Pontificia Accademia delle Scienze (PAS) e dalla Pontificia Accademia delle Scienze Sociali (PASS), 16-17 maggio 2019, Casina Pio IV, Città del Vaticano.

TEMATICHE E PROGRAMMA

1. I progressi nell’apprendimento automatico (noto anche come machine learning e spesso indicato come intelligenza artificiale – IA) e nella robotica hanno subito un forte impulso, con un impatto significativo sul funzionamento delle società e delle economie, suscitando un ampio dibattito su benefici e svantaggi per l’umanità. Si tratta certamente di un ambito scientifico e tecnologico in rapida evoluzione che va seguito con attenzione: le Pontificie Accademie hanno perciò voluto organizzare questa conferenza, [1] che ha visto la partecipazione di colleghi di varie discipline.

2. L’intelligenza artificiale e le sue applicazioni nel campo della robotica avranno implicazioni di vasta portata per le economie, per il tessuto della società e per la cultura. Oltre ad esaminare le attuali frontiere della ricerca nella robotica/IA, abbiamo esaminato e discusso i probabili impatti sul benessere della società e le derivazioni etiche e politiche.

3. L’intelligenza artificiale e la robotica permetterebbero di risolvere alcuni dei nostri problemi sociali, economici e ambientali più intrattabili, come i cambiamenti climatici, e di raggiungere gli Obiettivi di Sviluppo Sostenibile (OSS) delle Nazioni Unite per il 2030.

4. Nell’intelligenza artificiale e nella robotica vi sono inoltre alcune tendenze a lungo termine le cui conseguenze potrebbero rappresentare una sfida per il ruolo stesso degli esseri umani nella società.

5. Cresce il timore riguardante i rischi per la pace dovuti a nuove forme di guerra (attacchi informatici, armi autonome) che richiedono a loro nuove norme di sicurezza internazionale.

6. Vanno inoltre chiariti gli aspetti etici e religiosi dell’IA e della robotica, al fine di poter orientare potenziali politiche normative riguardanti applicazioni e sviluppo futuro dell’IA e della robotica.

QUESTIONI FONDAMENTALI DELL’IA E DELLA ROBOTICA

7. Da un lato, il campo dell’IA ha sviluppato una ricca varietà di metodologie e strutture teoriche; dall’altro, le sue applicazioni pratiche sono sempre più impressionanti. L’intelligenza artificiale ha il potenziale di realizzare progressi in ogni campo della scienza e della società, per esempio aiutarci a superare alcuni dei nostri limiti cognitivi e a risolvere problemi complessi. Infatti, le enormi quantità di dati che rappresentano una sfida per le capacità cognitive umane, presentano invece opportunità senza precedenti per la scienza e le discipline umanistiche. Il potenziale traslazionale del Big Data è notevole, ad esempio in medicina, sanità pubblica, istruzione e gestione di sistemi complessi in generale (biosfera, geosfera, economia). Tuttavia, la scienza basata sul Big Data in quanto tale rimane empirica e ci sfida a scoprire i meccanismi causali sottostanti.

8. In combinazione con la robotica e le interfacce cervello-computer, l’IA offre già un supporto eccezionale ai pazienti con deficit sensoriali o motori e facilita la cura dei pazienti disabili. L’IA, tramite nuovi strumenti per l’acquisizione di conoscenze, può rivoluzionare l’istruzione e facilitare l’accesso al sapere. Si potrebbero persino venire a creare sinergie derivanti dall’interazione tra robot, e tra umani e robot che lavorano insieme con successo sugli stessi incarichi.

9. Tra le questioni fondamentali dell’IA e della robotica vi è quella della coscienza e se le macchine possano ipoteticamente raggiungere tali capacità. È un problema tuttora aperto, principalmente per via dell’enorme diversità di definizioni di “coscienza”, che viene discusso partendo da prospettive contrastanti quali quelle delle scienze naturali, della teoria sociale e della filosofia. Si pone dunque la questione se l’enfasi attribuita alle capacità sovrumane dell’IA per il calcolo e la compilazione mascheri i numerosi limiti dei sistemi artificiali.

10. I più sostengono che i robot non possono essere considerati persone e che non saranno e non dovranno diventare agenti liberi, o possedere diritti. Alcuni, tuttavia, sostengono che i concetti di “comando e controllo” potrebbero non essere appropriati alle relazioni uomo-robot, e altri addirittura si chiedono se si debba prendere in considerazione una sorta di “cittadinanza elettronica”. La filosofia e la teologia cristiane affermano che l’anima umana è intrinsecamente incorruttibile. Questa è la base metafisica secondo la quale la persona umana è in se stessa libera e capace di ordine etico, ed emerge dalle forze della natura. Come soggetto spirituale, l’essere umano è imago Dei. In questo senso, secondo la filosofia cristiana l’IA e i robot non possono essere considerati persone, quindi i robot non dovranno e non dovrebbero possedere la libertà umana e, non possedendo un’anima spirituale, non possono essere considerati “immagine di Dio” ma, forse, “immagine dell’essere umano”, e possono essere creati dagli esseri umani come loro strumenti per il bene della società.

11. La ricerca sull’apprendimento automatico comprende una linea di sviluppo che punta a individuare le giustificazioni alla base della progettazione di agenti cognitivi; tali giustificazioni consentirebbero la derivazione di teoremi che caratterizzano le possibilità e i limiti degli agenti intelligenti. Gli agenti cognitivi agiscono in un ambiente aperto, parzialmente o completamente sconosciuto, al fine di raggiungere gli obiettivi. I concetti chiave di un framework di base per l’IA includono: agenti, ambienti, premi, punteggi locali, punteggi globali, il modello esatto di interazione tra agenti e ambienti e una specifica delle risorse computazionali disponibili di agenti e ambienti. Un “agente intelligente” può essere definito come un agente in grado di raggiungere obiettivi in una vasta gamma di ambienti. Il tema della cognizione con risorse limitate merita un’ulteriore esplorazione al fine di raggiungere un quadro di base significativo e ampiamente integrato per l’intelligenza artificiale.

12. Un aspetto centrale dell’apprendimento basato sull’esperienza è la rappresentazione e l’elaborazione di conoscenze incerte. In assenza di ipotesi deterministiche sul mondo, non esiste alcuna conclusione logica non banale che possa essere estratta dal passato per qualsiasi evento futuro. Di conseguenza, è di interesse fondamentale analizzare la struttura dell’incertezza come questione a sé stante. È necessario condurre altre ricerche per tradurre proposte preliminari e metodi formali dal campo teorico in progettazione di soluzioni algoritmiche efficienti.

13. Risultati recenti stabiliscono una stretta connessione tra l’apprendimento e la provabilità, riducendo in tal modo la questione di cosa può essere effettivamente appreso alle questioni fondamentali della matematica per quanto riguarda gli assiomi dell’esistenza. I risultati della matematica inversa, un ramo della logica matematica che analizza i teoremi con riferimento agli assiomi di esistenza impostati necessari per dimostrarli, possono essere usati per illustrare le implicazioni dei quadri di apprendimento automatico. In generale, le tecniche di verifica dei modelli e di verifica delle prove diventano sempre più importanti man mano che si espande la criticità dei compiti affidati agli agenti intelligenti.

14. Fino a poco tempo fa, la scienza matematica di base si poneva poche (o nessuna) questioni etiche. Tuttavia, dato che matematici e progettisti di software sono fondamentali per lo sviluppo dell’IA, è essenziale che considerino le implicazioni etiche del loro lavoro. Alla luce delle domande sollevate sempre più spesso sull’affidabilità dei sistemi autonomi, gli sviluppatori dell’IA hanno la responsabilità – che idealmente dovrebbe diventare un obbligo legale – di creare sistemi robotizzati affidabili e controllabili.

SCIENZA, INGEGNERIA, IA E ROBOT – INTERAZIONI UMANE

15. Sono in corso importanti ricerche nei settori che ci definiscono esseri umani, come il linguaggio, l’elaborazione dei simboli, l’apprendimento one-shot, l’autovalutazione, il giudizio di fiducia, l’induzione del programma, gli obiettivi di concepimento e l’integrazione di moduli esistenti in una architettura intelligente onnicomprensiva e multiuso. Gli agenti computazionali formati dall’apprendimento per rinforzo e dai framework di apprendimento profondo mostrano prestazioni eccezionali in compiti finora ritenuti intrattabili. Mentre mancano ancora le basi per una teoria generale degli agenti cognitivi computazionali, l’avanzamento concettuale e pratico dell’intelligenza artificiale ha raggiunto uno stato in cui le questioni etiche e di sicurezza e l’impatto sulla società diventano questioni urgenti. Ad esempio, un problema del genere è rappresentato dalle inferenze basate sull’intelligenza artificiale dei sentimenti delle persone derivate dai dati di riconoscimento facciale.

16. La diffusione della robotica modifica profondamente le relazioni umane e sociali in tutte le sfere della società, nella famiglia come nei luoghi di lavoro e nella sfera pubblica. Queste modifiche assumono il carattere dei processi di ibridazione tra le caratteristiche propriamente umane delle relazioni e quelle artificiali, quindi tra realtà analogica e virtuale. Pertanto, è necessario aumentare la ricerca scientifica su questioni relative agli effetti sociali derivanti dalla delega di aspetti rilevanti dell’organizzazione sociale all’IA e ai robot. Uno scopo di questa ricerca dovrebbe essere quello di comprendere come sia possibile governare i processi di cambiamento rilevanti e produrre quei beni relazionali che realizzano una virtuosa realizzazione umana all’interno di uno sviluppo sociale sostenibile ed equo.

17. Prendiamo nota del fatto che rapidi progressi nell’ingegneria della robotica stanno trasformando interi settori (industria 4.0). L’evoluzione dell’internet delle cose (Internet of Things, IoT) con la comunicazione tra macchine e l’apprendimento automatico interconnesso offre importanti progressi per servizi come quello bancario e finanziario. Le interazioni robot-robot e uomo-robot sono sempre più intense. Tuttavia, i sistemi di intelligenza artificiale sono difficili da testare e validare. Ciò rende ardua la fiducia nell’intelligenza artificiale e nei robot. Sorgono problemi di regolamentazione e proprietà dei dati, di assegnazione di responsabilità e trasparenza degli algoritmi e richiedono accordi istituzionali legittimi.

18. Siamo in grado di distinguere tra robot meccanici, progettati per svolgere compiti di routine nella produzione, e le capacità dell’IA nei campi di assistenza sociale, procedure mediche, sistemi di mobilità sicuri ed efficienti dal punto di vista energetico, compiti educativi e ricerca scientifica. Se assistenti intelligenti potrebbero beneficiare sia adulti che bambini, è vero anche che comportano rischi perché il loro impatto sullo sviluppo del cervello è sconosciuto e perché le persone potrebbero sentirsi demotivate in quelle aree in cui l’IA appare superiore.

19. Negli ultimi decenni, il settore della robotica ha stimolato una moltitudine di applicazioni di nuovi servizi e assistenza. Paradigmatici per molti scenari applicativi sono i sistemi robotizzati mano-braccio per i quali le sfide di precisione, sensibilità e robustezza si presentano con requisiti di presa sicuri. Sebbene le mani robotiche siano ancora lontane dalle loro controparti umane, le loro prestazioni sono state notevolmente migliorate da nuovi metodi di controllo. Applicazioni promettenti si stanno evolvendo nei sistemi di tele-manipolazione in una varietà di settori come l’assistenza sanitaria, la produzione in fabbrica e la mobilità.

20. L’intelligenza artificiale può essere di servizio al buon governo, inclusa l’identificazione e prevenzione di transazioni illegali, ad esempio denaro ricevuto da attività criminali come traffico di droga, traffico di esseri umani o trapianti illegali. Tuttavia, quando l’IA è nelle mani delle sole società, i ricavi dell’IA potrebbero non essere ridistribuiti equamente. Queste nuove tecnologie non devono diventare strumenti per asservire le persone o emarginare ulteriormente i poveri.

LA ROBOTICA CHE CAMBIA IL FUTURO DEL LAVORO, AGRICOLTURA, POVERTÀ, INEQUALITÀ ED ECOLOGIA

21. Abbiamo esaminato le applicazioni dell’IA (e relative tecnologie emergenti) in medicina e sanità, mobilità e trasporti, produzione e agricoltura. Sono state rilevate maggiori opportunità e una notevole attenzione è stata dedicata alle applicazioni della robotica / IA in ciascuno di questi settori, considerati separatamente. Tuttavia, una prospettiva settoriale sull’intelligenza artificiale e la robotica presenta alcuni limiti. Sembra necessario ottenere un quadro più completo delle connessioni tra le applicazioni e concentrarsi sulle politiche pubbliche che facilitano correttezza ed equità complessive che coprono tutti gli aspetti dell’IA e della robotica.

22. A meno che non venga incanalata per il beneficio pubblico, l’IA può sollevare importanti preoccupazioni per l’economia e la stabilità della società. Alcuni lavori potrebbero andare persi nello spostamento a dispositivi computerizzati, con un conseguente aumento della disparità di reddito e delle lacune nella conoscenza. I progressi nell’automazione e l’aumento della fornitura di lavoro artificiale, in particolare nei settori agricolo e industriale, possono ridurre significativamente l’occupazione nelle economie emergenti. Attraverso collegamenti all’interno delle catene del valore globali, i lavoratori nei paesi a basso reddito possono anche essere colpiti da robot nei paesi a più alto reddito, che potrebbero ridurre la necessità di esternalizzare lavori di routine alle ex regioni a basso salario. Tuttavia, l’uso di robot potrebbe anche aumentare la domanda di manodopera, riducendo il costo di produzione che porta all’espansione industriale. Mancano, e sono necessarie, stime attendibili di nuovi posti di lavoro creati nelle industrie che progettano e producono robot.

23. Le implicazioni occupazionali e lavorative della robotica sono una delle principali questioni di ordine pubblico. Le politiche dovrebbero mirare a fornire le misure di sicurezza sociale necessarie per i lavoratori interessati, investendo nello sviluppo delle competenze necessarie per trarre vantaggio dai nuovi posti di lavoro creati. Lo stato dovrebbe essere in grado di ridistribuire i profitti ottenuti dal lavoro svolto dalla robotica. Tale ridistribuzione potrebbe, ad esempio, pagare per la riqualificazione delle persone colpite, in modo che possano rimanere all’interno della forza lavoro. A tale proposito, è importante ricordare che molte di queste nuove innovazioni tecnologiche sono state realizzate con il sostegno di finanziamenti pubblici.

24. I robot, l’IA e il capitale digitale in generale possono essere considerati come base imponibile. Attualmente non è così; il lavoro umano è tassato, ma il lavoro robotico no. In questo modo, i sistemi robotici sono sovvenzionati indirettamente, in quanto le aziende possono compensarli nei loro sistemi contabili, riducendo così la tassazione delle società. Queste distorsioni che sfavoriscono i lavoratori umani, favorendo gli investimenti nei robot, dovrebbero essere invertite.

25. Rileviamo che è necessaria una maggiore attenzione alle implicazioni, opportunità e rischi dell’IA e della robotica per lo sviluppo sostenibile e i poveri. Nei programmi e nelle politiche vanno studiate e considerate soprattutto le implicazioni per i paesi a basso reddito, gli emarginati e le donne. Un’opportunità, in molte regioni a basso reddito, è rappresentata dalle risorse di insegnamento dell’IA. Poiché gran parte dei poveri vive in piccole aziende agricole, in particolare in Africa e nell’Asia meridionale e orientale, è importante sapere se abbiano o meno accesso a tecnologie digitali significative e all’IA. Esempi sono la certificazione della proprietà fondiaria attraverso la tecnologia blockchain, tecnologie di precisione nella gestione dei terreni e delle colture e molte altre ancora.

26. Una maggiore attenzione andrebbe data agli impatti ambientali diretti e indiretti. Il monitoraggio mediante telerilevamento intelligente nei sistemi terrestri e acquatici può essere notevolmente migliorato per valutare il cambiamento della biodiversità e gli impatti degli interventi. Tuttavia, esiste anche il problema dell’inquinamento causato dai rifiuti elettronici scaricati dai paesi industrializzati nei paesi a basso reddito. Ciò richiede un’attenzione urgente, così come l’impronta di carbonio dell’IA e della robotica.

ROBOTICA, IA E CONFLITTO MILITARIZZATO

27. Nel conflitto militarizzato, i sistemi basati sull’intelligenza artificiale (compresi i robot) possono servire a una varietà di scopi, tra cui l’estrazione di personale ferito, il monitoraggio del rispetto delle leggi di guerra / regole di ingaggio, il miglioramento della consapevolezza situazionale / la pianificazione del campo di battaglia e l’assunzione di decisioni mirate. Se è l’ultima categoria a sollevare le questioni morali più difficili, in ogni caso le implicazioni di barriere di guerra potenzialmente abbassate così come i rischi dei sistemi devono essere attentamente esaminate prima di qualsiasi implementazione nei contesti del campo di battaglia.

28. La preoccupazione di restare indietro nella corsa allo sviluppo di nuove applicazioni militari non deve diventare una scusa per cortocircuitare la ricerca, i test e l’addestramento adeguato sulla sicurezza. Poiché la progettazione delle armi si sta allontanando dall’infrastruttura su larga scala verso sistemi autonomi, decentralizzati e miniaturizzati, i rischi di effetti distruttivi dovuti alla progettazione di sistemi e potenziali guasti saranno notevolmente amplificati rispetto alla maggior parte dei sistemi operativi oggi. Questo maggiore potenziale di esternalità negative deve essere compensato da investimenti proporzionati in sicurezza e formazione. Gli strumenti dell’intelligenza artificiale dovrebbero migliorare, ma non sminuire l’esercizio di un giudizio sano e morale da parte del personale militare.

29. Uno sforzo internazionale concertato deve essere diretto all’identificazione delle applicazioni specifiche dell’IA che comportano rischi di escalation. Gli stati dovrebbero concordare misure concrete per ridurre il rischio di guerre facilitate e forse intensificate dall’intelligenza artificiale. Si dovrebbe prestare attenzione non solo ai pericoli di una tecnologia che sostituisce le persone nelle sfere militari, ma anche al pericolo che l’IA può rappresentare per l’esercizio della “riflessione strategica” in contesti di conflitto.

30. Per quanto riguarda i sistemi letali di armi autonome, dato lo stato attuale (e per il prossimo futuro) di competenza tecnica, non dovrebbe essere schierato nessun sistema che funzioni senza essere sottoposto a sorveglianza. Le linee di responsabilità umana devono essere mantenute in modo da garantire l’adesione alle leggi di guerra riconosciute a livello internazionale e sanzionare le violazioni.

DIMENSIONI SOCIETARIE, ETICHE, RELIGIOSE E REGOLAMENTARI DELLA ROBOTICA / IA

Oltre a quelli già evidenziati, è necessario sottolineare i seguenti aspetti:

31. L’impegno dello sviluppo sostenuto pubblicamente di macchine intelligenti dovrebbe essere diretto al bene comune. L’impatto su beni e servizi pubblici, nonché su salute, istruzione, felicità e sostenibilità, deve essere di primaria importanza. L’intelligenza artificiale potrebbe avere preconcetti imprevisti o conseguenze disumane, tra cui la segmentazione della società e il pregiudizio razziale e di genere, e questi devono essere affrontati prima che possano verificarsi. Sono questioni nazionali e globali e queste ultime necessitano di ulteriore attenzione da parte delle Nazioni Unite.

32. Per quanto riguarda la privacy, l’accesso a nuove conoscenze e i diritti di informazione, i poveri sono particolarmente minacciati a causa della loro attuale mancanza di potere e voce. L’intelligenza artificiale e la robotica devono essere accompagnate da una maggiore responsabilizzazione dei poveri, attraverso l’informazione, l’istruzione e gli investimenti in competenze che richiedono un miglioramento.

33. La questione del lavoro è al centro della Dottrina Sociale della Chiesa. Come affermato in Laborem exercens, l’accesso a lavori significativi è fondamentale per la dignità umana. Eliminare tale accesso mediante l’uso di macchine non è accettabile, mentre ridurre gli oneri di lavoro e i rischi per la salute del lavoro rappresenta uno sviluppo costruttivo.

34. Le politiche dovrebbero mirare a condividere i benefici della crescita della produttività attraverso una combinazione di ripartizione degli utili, non sovvenzionando i robot ma prendendo in considerazione la tassazione (digitale) del capitale e una riduzione dell’orario di lavoro impiegato per le attività di routine.

35. È necessario prestare attenzione ai rischi di applicazioni manipolative dell’IA per modellare l’opinione pubblica e le interferenze elettorali, e sono richiesti controlli nazionali e internazionali.

36. L’IA e la robotica offrono grandi opportunità e comportano rischi; pertanto le normative dovrebbero essere adeguatamente progettate da istituzioni pubbliche legittime, senza ostacolare le opportunità e senza stimolare un’eccessiva assunzione di rischi e distorsioni. Questo richiede un quadro in cui il discorso inclusivo della società pubblica sia informato dalle scienze di diverse discipline e tutti i segmenti della società siano in grado di partecipare.

37. Sono richieste nuove forme di regolamentazione dell’economia digitale che garantiscano un’adeguata protezione dei dati e della privacy personale. Inoltre, valori deontici come “consentito”, “obbligatorio” e “vietato” devono essere rafforzati per navigare sul web e interagire con i robot.

38. Le aziende dovrebbero creare commissioni etiche e di sicurezza e unirsi alle organizzazioni senza scopo di lucro che mirano a stabilire le migliori pratiche e standard per il dispiegamento vantaggioso dell’IA e della Robotica. È necessario sviluppare protocolli adeguati per la sicurezza dei robot di intelligenza artificiale, come controlli duplicati da parte di team di progettazione indipendenti di sistemi robotici di intelligenza artificiale. Il superamento di test etici e di sicurezza, valutando ad esempio l’impatto sociale o il pregiudizio razziale nascosto, dovrebbe diventare un prerequisito per il rilascio di nuovo software IA. Dovrebbero essere considerati i consigli civili esterni che effettuano una valutazione ricorrente e trasparente di tutte le tecnologie, compresi i militari.

39. Scienziati e ingegneri, in qualità di progettisti dell’IA e dei dispositivi robotici, hanno la responsabilità di cercare attivamente di garantire che le loro invenzioni e innovazioni siano sicure e che possano essere utilizzate per buoni scopi.

[1] Una precedente conferenza (30 novembre-1 dicembre 2016) era stata organizzata dalle due Accademie su Potere e Limiti dell’Intelligenza Artificiale. La presente dichiarazione si basa sul lavoro di questa conferenza precedente (inclusa la dichiarazione rilasciata alla sua conclusione).

(Dichiarazione preparata da Joachim von Braun, Presidente del PAS, con importanti contributi dei partecipanti alla conferenza.)

 

Conference Organizers

von Braun, Joachim | PAS President, University of Bonn, Center for Development Research, (ZEF), Germany

Cremers, Armin | B-IT Emeritus Research Group, University of Bonn, Germany

Archer, Margaret | PASS Academician, Professor, University of Warwick, UK

Reichberg, Greg | PASS Academician, Professor, Peace Research Institute Oslo (PRIO), Norway

Sánchez Sorondo, Marcelo | Bishop Chancellor of Pontifical Academies of Science (PAS) and Social Sciences (PASS)
 

Conference Participants

Akiyama, Nobumasa | Professor at Graduate School of Law and Graduate School of International and Public Policy, Hitotsubashi University, Japan

Battro, Antonio | PAS Academician, Member of the Academia Nacional de Educación, Argentina

Clodic, Aurélie | Laboratoire d‘Analyse et d‘Architecture des Systèmes (LAAS) CNRS, Toulouse, France

De Backer, Koenraad | Head of Division, Directorate for Science and Technology and Innovations, OECD, Paris, France

Dehaene, Stanislas | PAS Academician, Professor, INSERM-CEA Cognitice Neuroimmaging Unit, Collège de France, Orsay, France

Devillers, Laurence | Professor, Artificial Intelligence and Ethics, Paris-Sorbonne, France

Donati, Pierpaolo | PASS Academician, PAM Professor of Sociology, University of Bologna, Italy

Dowek, Gilles | Researcher at INRIA, Professor at ENS Paris-Saclay, France

Ema, Arisa | Assistant Professor, University of Tokyo; Visiting Researcher at RIKEN Center for Advanced Intelligence Project, Japan

Fischer, Sophie-Charlotte | Ph.D. researcher, Center for Security Studies, ETH Zurich, Switzerland

Gabriel, Markus | Professor, Philosophy Department, University of Bonn, Germany

Hirzinger, Gerhard | Professor em., Technical University Munich, Germany

Kane, Angela | Senior Fellow of Vienna Centre for Disarmament and Non-Proliferation, Austria

Léna, Pierre | PAS Academician, Professor em., Université Paris VII Denis Diderot, France

Pasquale, Frank | Professor of Law, University of Maryland, USA

Peylo, Christoph | Global Head of Bosch Center for Artificial Intelligence, with locations in Sunnyvale, Bangalore, and Renningen, Germany

Quintarelli, Stefano | Chairman of steering committee of Italy’s Digital Agency, Italy

Schröder, Wolfgang M. | Professor, Philosophy, Faculty of Catholic Theology. University of Würzburg, Germany

Singer, Wolf | PAS Academician, Max-Planck-Institute for Brain Research, Frankfurt, Germany

Stachniss, Cyrill | Professor, Lab on Photogammetry and Robotics, University of Bonn, Germany

Swett, Bruce A. | Professor, Johns Hopkins University Applied Physics Laboratory, Baltimore, USA

Syse, Henrik | Professor at Peace Research Institute, Oslo, Norway

Torero, Maximo | Assistant Director General, Food and Agriculture Organization (FAO) of United Nations, Rome, Italy

van Wynsberghe, Aimee | Professor, Ethics and Technology, TU Delft, Netherlands

Zamagni, Stefano | President of Pontifical Academy of Social Sciences (PASS); Professor of Economics, University of Bologna, Italy

Collegamenti

Robotica, Intelligenza Artificiale e Umanità: Scienza, Etica e Politiche

Conferenza 16-17 maggio 2019 | I recenti progressi nell'apprendimento automatico (comunemente... Continua

Schlusserklärung

Schlusserklärung der Konferenz über Robotik, KI und Humanität, Wissenschaft, Ethik und... Continua

Declaración final

ROBÓTICA, INTELIGENCIA ARTIFICIAL Y HUMANIDAD: CIENCIA, ÉTICA Y POLÍTICAS Declaración final de la... Continua