Terminator: Dark Fate, las críticas de los científicos a la nueva película de la saga

Terminator Derechos de autor de la imagen Víctor Chávez
Image caption La saga protagonizada por Linda Hamilton y Arnold Schwazenegger estrena nueva secuela: "Terminator: Dark Fate".

Arnold Schwarzenegger iba en serio cuando dijo: "Volveré", pero no todos están encantados de que haya una nueva película de Terminator estrenándose esta semana.

En los laboratorios de la Universidad de Cambridge, Facebook y Amazon, los investigadores temen que "Terminator: Dark Fate" pueda brindar al publico información engañosa respecto a los peligros reales de la inteligencia artificial (IA).

El pionero de la IA Yoshua Bengio le dijo a la BBC que no le gustaban las películas de Terminator por varias razones.

"Dibujan una imagen que no es realmente coherente con la comprensión actual de cómo se construyen los sistemas de IA hoy y de un futuro cercano", dice el profesor Bengio, a quien a veces se le llama uno de los "padrinos de la IA" por su trabajo en el aprendizaje profundo en las décadas de 1990 y 2000.

"Estamos muy lejos de los sistemas de inteligencia artificial súper inteligentes e incluso puede haber obstáculos fundamentales para ir mucho más allá de la inteligencia humana".

Derechos de autor de la imagen Maryse Boyce
Image caption El pionero de la IA Yoshua Bengio cree que todavía estamos muy lejos de desarrollar máquinas súper inteligentes.

De la misma manera que "Tiburón" influyó en las opiniones de muchas personas sobre los tiburones de una forma que no se alineaba con la realidad científica, las películas apocalípticas de ciencia ficción como "Terminator" pueden generar temores fuera de lugar a una IA incontrolable y todopoderosa.

"La realidad es que eso no va a suceder", dice Edward Grefenstette, científico investigador de Facebook AI Research en Londres.

Mientras que los cíborgs de humanos mejorados se rebelan en la nueva secuela de "Terminator", los sistemas de inteligencia artificial de la actualidad apenas son capaces de jugar juegos de mesa como "Go" o reconocer caras en una foto. Y aunque pueden hacer esas tareas mejor que los humanos, están muy lejos de poder controlar un cuerpo.

"Los sistemas de vanguardia actuales ni siquiera podrían conseguir controlar el cuerpo de un ratón", dice Bengio, cofundador de la empresa canadiense de investigación en este campo Element AI.

Quienes trabajan en IA hoy en día luchan por sobresalir en más de una tarea, por lo que a menudo se los conoce como sistemas de "IA débil" en lugar de "IA fuerte".

Derechos de autor de la imagen Universidad de Cambridge
Image caption Neil Lawrence, profesor de aprendizaje automático en la Universidad de Cambridge, cree que deberíamos repensar nuestro concepto de IA.

Pero sería más apropiado llamar a muchas de las tecnologías actuales de IA "computadoras y estadísticas", según Neil Lawrence, quien recientemente dejó Amazon y se unió a la Universidad de Cambridge como el primer profesor de aprendizaje automático de DeepMind.

"La mayor parte de lo que llamamos IA realmente está utilizando grandes capacidades computacionales combinadas con una gran cantidad de datos para deshacer correlaciones estadísticas", dice.

Temores infundados

Individuos como Elon Musk han hecho un buen trabajo asustando a algunos para que piensen que "Terminator" podría convertirse en una realidad en un futuro no muy lejano, gracias en parte a frases como que la IA es "potencialmente más peligrosa que las armas nucleares".

Pero la comunidad de IA no está segura de qué tan rápido avanzará la inteligencia artificial durante los próximos cinco años, y mucho menos dentro de los próximos 10 a 30 años.

También hay escepticismo en la comunidad acerca de si los sistemas de inteligencia artificial alguna vez alcanzarán el mismo nivel de inteligencia que los humanos, o si esto sería deseable.

"Normalmente, cuando las personas hablan sobre los riesgos de la IA, tienen en mente escenarios en los que las máquinas han logrado 'inteligencia artificial fuerte' y tienen las habilidades cognitivas para actuar más allá del control y la especificación de humanos que los crearon", dice Grefenstette.

"Con el debido respeto a las personas que hablan de los peligros de IA fuerte y de su inminencia, esta es una perspectiva poco realista, dado que el progreso reciente en IA todavía se enfoca invariablemente en el desarrollo de habilidades muy específicas dentro de dominios controlados".

Derechos de autor de la imagen Kerry Brown
Image caption "La película puede hacer que la gente piense en cómo serán las guerras en el futuro", afirma Lawrence.

Deberíamos estar más preocupados por cómo los humanos abusan del poder que ofrece la IA, dice Bengio.

¿Cómo la IA acentuará aún más la desigualdad? ¿Cómo se usará la IA en la vigilancia? ¿Cómo se usará la IA en la guerra?

La idea de sistemas de IA relativamente tontos que controlen máquinas de matar desenfrenadas es aterradora.

Derechos de autor de la imagen Skydance Productions / Paramount Pictures.
Image caption Linda Hamilton vuelve a retomar el papel que estrenó hace casi cuatro décadas.

"La película puede hacer que la gente piense en cómo serán las guerras en el futuro", afirma Lawrence.

Para Joanna Bryson, quien dirige el grupo Bath Intelligent Systems, en la Universidad de Bath: "Es bueno hacer que la gente piense en los problemas de los sistemas de armas autónomos".

Pero no necesitamos mirar hacia el futuro para ver a la IA haciendo daño. Los sistemas de reconocimiento facial se están utilizando para rastrear y oprimir a los uigures en China, los bots se están usando para manipular las elecciones y ya hay videos "deepfake".

"La inteligencia artificial ya nos está ayudando a destruir nuestras democracias y corromper nuestras economías y el estado de derecho", según Bryson.

Derechos de autor de la imagen Reuters

Afortunadamente, muchos de los investigadores actuales de IA están trabajando duro para garantizar que sus sistemas tengan un impacto positivo en las personas y la sociedad, centrando sus esfuerzos en áreas como la atención médica y el cambio climático.

En Facebook, por ejemplo, los investigadores están tratando de descubrir cómo entrenar sistemas artificiales que entiendan nuestro idioma, sigan instrucciones y se comuniquen con nosotros u otros sistemas.

"Nuestro objetivo principal es producir inteligencia artificial que sea más cooperativa, comunicativa y transparente respecto a sus intenciones y planes, al tiempo que ayuda a las personas en escenarios del mundo real", dice Grefenstette.

Derechos de autor de la imagen Universidad de Bath
Image caption Joanna Bryson se convertirá en la profesora de ética y tecnología en la Hertie School of Governance de Berlín en febrero.

En última instancia, la responsabilidad de difundir el verdadero estado de la IA recae en los medios.

La elección de una foto afecta directamente el interés en un artículo, pero las escuelas de periodismo de todo el mundo recomendarían encarecidamente no engañar al público por el simple hecho de buscar clics.

Desafortunadamente, ha habido numerosos casos de medios que utilizan imágenes fijas de las películas de "Terminator" en historias sobre avances relativamente graduales.

Bryson asegura que pasa por encima de este tipo de artículos como si se tratase de anuncios publicitarios, mientras que Lawrence supone que son clickbaits (ciberanzuelos).

Los periodistas que escriben historias de IA "deberían mostrar los cubículos de las personas que realmente desarrollan la IA", en Google o Facebook, por ejemplo, dice Bryson.

"La prensa debe dejar de tratar a la IA como una especie de descubrimiento científico que se saca del suelo o se descubre en Marte", asegura. "La IA es solo una tecnología que las personas usan para hacer cosas".

Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.

Contenido relacionado