Los controles sobre su evolución, la responsabilidad por su accionar y la definición de inteligencia, una discusión que sigue.
La proliferación de software basado en inteligencia artificial y de robots cada vez más sofisticados que pueden «aprender» están avanzando en el campo laboral hasta el punto que muchos humanos podrían perder sus puestos de trabajo en el corto plazo (aunque luego cree otros). En este sentido, uno de los casos más grandilocuentes es el del fabricante de equipos electrónicos Foxconn, que en mayo de este año anunció que iba a reemplazar a 60 mil trabajadores por robots. Otro ejemplo: los chatbots, que son programas que simulan mantener «conversaciones» con humanos de manera natural e intuitiva a través del chat, ya son una realidad la Argentina y podrían ocupar los puestos de muchos agentes de atención al cliente.
Quién controla a la Inteligencia Artificial
En este contexto, y dado el avance vertiginoso que se evidencia en este campo, muchos reflexionan acerca de la probabilidad de que las máquinas se vuelvan incontrolables y su creación sea contraproducente para la especie humana.
Fruto de esta problemática, investigadores de la matriz de Google, Alphabet, y los de Amazon, Facebook, IBM y Microsoft, todas corporaciones que están desarrollando soluciones basadas en IA, analizaron el impacto de sus desarrollos en el empleo, la salud y hasta la guerra. Estas firmas sellaron un acuerdo, denominado Partnership on AI, para trabajar de manera coordinada. «Creemos que una aproximación conjunta es la clave para identificar los retos y abrir las oportunidades para que la IA tenga un impacto positivo en la sociedad. El objetivo de la alianza es compartir mejores prácticas y desarrollar investigaciones abiertas sobre la ética, la equidad y la transparencia en el desarrollo de estas tecnologías», explicó a LA NACION Marco Lauria, vicepresidente de soluciones cognitivas en IBM.
Por otra parte, en julio del año pasado, científicos y empresarios como el cofundador de Apple Steve Wozniak, el fundador de Microsoft Bill Gates, el físico Stephen Hawking, el fundador de Tesla, Elon Musk y el lingüista Noam Chomsky, entre otros, redactaron un documento para pedir que se regule la IA. En esta línea, la Universidad de Standford retomó el tema en septiembre de 2016. A través del documento Estudio de cien años de Inteligencia Artificial , se plantea un plan para revisar cada lustro durante los próximos 100 años con el fin de analizar su impacto en la sociedad. Una afirmación interesante del informe es que no se puede regular la IA porque «no existe ningún motivo de preocupación que amenace para la humanidad».
Controversias sobre el concepto de «inteligencia»
Consultado por LA NACION, David Deutch, un físico de la Universidad de Oxford, Inglaterra, y miembro de la Royal Society, pionero en el campo de la computación cuántica al ser la primera persona en formular un algoritmo cuántico, y uno de los formuladores de la teoría de los universos paralelos dentro de la mecánica cuántica, opinó: «La inteligencia es una sola y es universal, esto significa que las soluciones de IA podrían ser tan inteligentes como la de los humanos. Al mismo tiempo, a medida que ésta avance, la inteligencia de los hombres también irá desarrollándose».
Sin embargo, el investigador del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas de la Universidad Nacional Autónoma de México (UNAM), Carlos Gershenson, explicó en diálogo con LA NACION que no está de acuerdo con este concepto: «Hace varios años se vinculaba a la inteligencia con la habilidad relacionada con la lógico-matemática, que es en base a la cual se desarrolla la IA. Sin embargo, desde la psicología y otras disciplinas se ha comprobado que no existe una sola inteligencia. De hecho, se habla de inteligencia emocional y artística, entre otras». Este profesional, que estudió filosofía, es líder del Laboratorio de Sistemas Auto-organizantes de la UNAM.
En tanto, los desarrolladores de IA señalan que el objetivo no es copiar la inteligencia humana, sino aumentar la capacidad de los hombres para analizar información. «La inteligencia humana es muy vasta y es capaz de adaptarse para resolver problemas de distinta naturaleza con gran facilidad. La inteligencia artificial no tiene ni la capacidad, ni la flexibilidad del cerebro, pero ofrece ciertas facultades que pueden ayudar a las personas», señala Lauria. Por este motivo, indica que la AI no nos hará cognitivamente dependientes, tal como sucedió con la llegada de las calculadoras, los mapas o la imprenta.
Fuente: lanacion.com.ar