UNI Global Union pide el establecimiento de un convenio mundial para una inteligencia artificial ética
¿Qué pasará el día en que los robots se vuelvan más inteligentes que los humanos? ¿Y estamos listos para ello?
Sam Harris hace dos preguntas fundamentales en esta charla alucinante. Él responde con un escenario: “Basta con pensar en nuestra relación con las hormigas. No las odiamos. No vamos por la vida lastimándolas. De hecho, a veces nos tomamos la molestia de no hacerles daño. Evitamos pisarlas en la acera. Pero cada vez que su presencia entra seriamente en conflicto con alguno de nuestros objetivos, digamos, en la construcción de un edificio como este, las aniquilamos sin escrúpulos. La preocupación es que algún día construyamos máquinas que, ya sea conscientemente o no, nos puedan tratar con una indiferencia similar.”
Harris no es el único que expresa inquietudes acerca de los límites y las fronteras de la inteligencia artificial. De hecho, ya en 2014 el mundialmente famoso profesor Stephen Hawking advirtió que “El desarrollo de la plena inteligencia artificial podría significar el fin de la raza humana.” Más adelante proseguía diciendo: “La IA acabará con puestos de trabajo de clase media, gravará la desigualdad y se correrá el riesgo de importantes trastornos políticos". Concluía afirmando: "Tenemos los medios para destruir nuestro mundo, pero no para escapar de él.”
Otros académicos y expertos, como las dos profesoras de AI Evers y Pantic quienes se dirigieron a la Cumbre de Líderes de UNI, no están de acuerdo con respecto al potencial de destrucción de la IA y el aprendizaje automático, y advierten que estamos años, si no décadas, lejos de una inteligencia de la máquina que supere a los seres humanos (Tech Crunch 2016, the Telegraph 2016). Ven el aprendizaje automático y la inteligencia artificial como formas de inteligencia que beneficiarán a los seres humanos y apuntan a las muchas áreas donde la IA ya les está beneficiando, sobre todo en el campo de la salud. Eric Schmidt, Presidente Ejecutivo de Alphabet de Google, dijo: “Imagina un mundo en el que aplicaciones y dispositivos inteligentes podrían ayudarnos a reconocer a todas las personas que hemos conocido, recordar cualquier cosa que hayamos dicho y experimentar cualquier momento que hayamos dejado pasar. Un mundo donde pudiéramos hablar cada idioma. (Ya vemos vislumbres de esto hoy con Google Translate.) Las herramientas sofisticadas de la IA nos capacitarán para aprender mejor de las experiencias de otros y para transmitir más de lo que hayamos aprendido a nuestros hijos.”
A pesar de estas dos opiniones fundamentalmente diferentes sobre cómo la IA afectará a nuestras sociedades, ambos grupos creen que IA está aquí para quedarse y ambos están de acuerdo en que cambiará significativamente nuestros mercados laborales, requisitos de habilidades y empleos.
Además, un número creciente de grupos y empresas aislados están empezando a concentrarse en las cuestiones esenciales de la ética del aprendizaje automático de la IA (www.futureoflife.org, World Economic Forum 2016, New York Times 2016).
Eric Schmidt de Google ha creado tres principios para la IA destinados a asegurar que beneficie a los seres humanos (Time 2015):
1. La IA debe beneficiar a la mayoría, no a unos pocos y tener como objetivo el bien común.
2. La investigación y el desarrollo de inteligencias artificiales deben ser abiertos y responsables, y estar comprometidos socialmente.
3. Los que diseñan la IA deben establecer las mejores prácticas para evitar resultados indeseables. Debe haber sistemas de verificación que evalúen si un sistema de IA está haciendo eso para lo que fue diseñado.
Los universitarios Diakopoulos y Friedler sostienen que la obligación de rendir cuentas de la IA puede analizarse a través de la lente de cinco principios básicos: responsabilidad, explicabilidad, exactitud, auditabilidad e imparcialidad.
Y, aunque criticado por anticuado e inadecuado para la IA superinteligente "Las tres leyes de la robótica" de Isaac Asimov de 1942 proporcionan otro conjunto de normas, a saber:
1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Si bien UNI Global Union apoya plenamente que se planteen estas consideraciones éticas, no basta con que se haga en círculos empresariales exclusivos, aislados o en el ámbito cerrado del mundo académico. La naturaleza global de la economía digital, sus implicaciones globales tanto para los trabajadores como para los ciudadanos, requieren una solución global.
UNI Global Union pide, por lo tanto, el establecimiento de un convenio mundial sobre el uso, el desarrollo y el despliegue éticos de la inteligencia artificial, los algoritmos y los macrodatos. Los universitarios, las empresas, los sindicatos, los consumidores, los gobiernos y las organizaciones de la sociedad civil deberían unirse para establecer estos estándares globales, de modo que no sólo se garantice una transición justa al mundo futuro del trabajo y la tecnología, sino también la tecnología futura en interés de los seres humanos, De manera justa, equitativa, transparente y sostenible.