Stuart Russell, profesor de la Universidad de California en Berkeley, se ha dedicado al estudio de la ingeniería artificial (IA) durante décadas.

Pero también es uno de sus críticos más conocidos, al menos del modelo de IA al que todavía ve como «estándar» en el mundo.

Rusell ha advertido que el modelo predominante de IA es, en su opinión, una amenaza para la supervivencia de los seres humanos.

Pero, a diferencia de las tramas de películas de Hollywood sobre el tema, no se trata de que estas tecnologías se vuelvan conscientes y se vuelvan contra nosotros.

La principal preocupación de Russell es la forma cómo sus desarrolladores humanos han programado esta inteligencia: tienen la tarea de optimizar sus tareas tanto como sea posible, básicamente a cualquier costo.

Y así se vuelven «ciegos» e indiferentes a los problemas (o, en última instancia, a la destrucción) que pueden causar a los humanos.

El genio salió de la botella

Para explicarle esto a BBC News Brasil, Russell utiliza la metáfora de un genio de una lámpara que cumple los deseos de su maestro.

«Le pides al genio que te convierta en la persona más rica del mundo, y así sucede, pero solo porque el genio hizo que el resto de las personas desaparecieran», dice.

«(En IA) construimos máquinas con lo que yo llamo los modelos estándar: ellas reciben objetivos que tienen que lograr u optimizar, para los cuales encuentran la mejor solución posible. Y luego llevan a cabo esa acción».

Incluso si esta acción es, en la práctica, perjudicial para los humanos, argumenta.

«Si construimos la IA para optimizar un objetivo fijo dado por nosotros, ellas (las máquinas) serán como psicópatas, persiguiendo ese objetivo y siendo completamente ajenas a todo lo demás, incluso si les pedimos que se detengan».

Un ejemplo cotidiano de esto, dice Russell, son los algoritmos que rigen a las redes sociales, que se han vuelto tan evidentes en los últimos días con el colapso global que afectó a Facebook, Instagram y WhatsApp durante unas seis horas.

La tarea principal de estos algoritmos es mejorar la experiencia del usuario en las redes sociales. Como, por ejemplo, recopilando la mayor información posible sobre ese usuario y proporcionándole contenido que se adapte a sus preferencias para que permanezcan conectados por más tiempo.

Incluso si esto se produce a expensas del bienestar del usuario o la ciudadanía global, continúa el investigador.

«Las redes sociales crean adicción, depresión, disfunción social, tal vez extremismo, polarización de la sociedad y, tal vez contribuyen a difundir desinformación», señala Russell.

«Y está claro que sus algoritmos están diseñados para optimizar un objetivo: que las personas hagan clic, que pasen más tiempo enganchadas con el contenido», continúa.

«Y, al optimizar estas cantidades, podemos estar causando enormes problemas a la sociedad».

No obstante, prosigue Russel, esos algoritmos no se someten a un escrutinio lo suficiente como para ser verificados o «arreglados», por lo que siguen trabajando para optimizar su objetivo, indistintamente del daño colateral.

«(Las redes sociales) no solo están optimizando lo incorrecto, sino que también están manipulando a las personas, porque al manipularlas consigue aumentar su compromiso. Y si puedo hacerte más predecible, por ejemplo, transformándote en un ecoterrorista extremo, puedo enviarte contenido ecoterrorista y asegurarme de que hagas clic para optimizar mis clics».

Estas críticas fueron reforzadas la semana pasada por la ex trabajadora de Facebook (y actual informante) Frances Haugen, quien testificó ante una audiencia del Congreso de Estados Unidos.

Haugen dijo que las redes sociales «dañan a los niños, provocan divisiones y socavan la democracia».

IA con «valores humanos»

Russell, a su vez, explicará sus teorías a una audiencia de investigadores brasileros el próximo 13 de octubre durante una conferencia de la Academia Brasileña de Ciencias de forma virtual.

El investigador, autor de «Compatibilidad Humana: Inteligencia artificial y el problema del control», es considerado pionero en el campo al que él llama «inteligencia artificial compatible con la existencia humana».

«Precisamos de un tipo completamente diferente al sistema de IA», opina Russell.

Este tipo de IA, prosigue, tendría que «saber» que tiene limitaciones, que no puede cumplir sus objetivos a ningún costo y que, incluso siendo una máquina, puede estar errada.

«Haría que esta inteligencia se comportase de un modo completamente diferente, más cautelosa (…), que va a pedir permiso antes de hacer algo cuando no tiene certeza de si es lo que queremos. Y, en un caso más extremo, que querría ser apagada para no hacer algo que nos va a perjudicar. Ese es mi mensaje principal».

La teoría defendida por Russell no forma parte de un consenso: hay quienes no consideran amenazante ese modelo vigente de IA.

Un ejemplo famoso de los dos lados de este debate ocurrió algunos años atrás, en una discusión pública entre los empresarios de tecnología Mark Zuckerberg y Elon Musk.

Un reportaje de The New York Times señala que, en una cena ocurrida en 2014, los dos empresarios debatieron entre sí.

Musk apuntó que el «realmente creía en el peligro» de la IA de volverse superior y subyugar a los humanos.
Zuckerberg, sin embargo, opinó que Musk estaba siendo alarmista.

En una entrevista de ese mismo año, el creador de Facebook se consideraba un «optimista» en cuando a IA y afirmó que los críticos, como Musk, «estaban creando escenarios apocalípticos e irresponsables».

«Siempre que escucho a gente diciendo que la IA va a perjudicar a las personas en el futuro, pienso que la tecnología generalmente puede ser usada para el bien o para el mal, y debes tener cuidado en cómo la construyes y en cómo va a ser usada. Pero encuentro cuestionable defender la ralentización del proceso de IA. No consigo entender eso».

«Descubrir qué causa la polarización»

Russell señala que en Facebook, por ejemplo, ni siquiera en el consejo independiente encargado de supervisar a la red social tiene acceso pleno al algoritmo que hace curaduría del contenido visto por los usuarios.

«Pero hay un gran grupo de investigadores y un gran proyecto en marcha en la Global Partnership en AI (GPAI según sus siglas en inglés), trabajando con una gran red social, que no puedo identificar, para obtener acceso a datos y hacer experimentos», dice Russell.

«Lo principal es hacer experimentos con grupos de control, ver con las personas qué está causando la polarización social y depresión y (ver) si al cambiar el algoritmo mejora eso».

«No le estoy diciendo a las personas que dejen de usar las redes sociales o que son inherentemente malvadas», prosigue Russell.

«(El problema) es la forma cómo los algoritmos funcionan, el uso de likes, de subir contenido (con base en las preferencias) o su eliminación. El modo en cómo el algoritmo escoge qué colocar en la pantalla parece basarse en métricas que son perjudiciales para las personas».

«Por lo tanto, debemos poner el beneficio del usuario como objetivo principal y eso va a hacer que las cosas funcionen mejor y que la gente este feliz de usar sus sistemas», sentencia.

No habrá una respuesta única sobre qué es «beneficioso». Por lo tanto, argumenta el investigador, los algoritmos tendrán que adaptar ese concepto para cada usuario individualmente, una tarea que, el propio Russell admite, no es nada fácil.

«De hecho, esta (área de las redes sociales) será una de las más difíciles donde se pondrá en práctica este nuevo modelo de IA», afirma.

«Creo realmente tenemos que empezar todo desde cero. Es posible que acabemos entendiendo la diferencia entre manipulación aceptable e inaceptable».

Continua Russell: «Por ejemplo, en el sistema educativo, manipulamos a los niños para volverlos ciudadanos conocedores, capaces, exitosos y bien integrados. Y consideramos eso aceptable».

«Pero si ese mismo proceso volviese a los niños terroristas, sería una manipulación inaceptable. ¿Cómo exactamente diferencias entre ambos? Es una cuestión muy difícil. Las redes sociales suscitan estos cuestionamientos bastante difíciles que hasta los filósofos tienen dificultades en responder», dice el investigador.

Fuente: bbc.com