12 oct 2021 , 09:38

Por qué los algoritmos de las redes sociales son cada vez más peligrosos

   
bbc-cintillo

Stuart Russell, profesor de la Universidad de California en Berkeley, se ha dedicado al estudio de la ingeniería artificial (IA) durante décadas.

Pero también es uno de sus críticos más conocidos, al menos del modelo de IA al que todavía ve como "estándar" en el mundo.

Rusell ha advertido que el modelo predominante de IA es, en su opinión, una amenaza para la supervivencia de los seres humanos.

Pero, a diferencia de las tramas de películas de Hollywood sobre el tema, no se trata de que estas tecnologías se vuelvan conscientes y se vuelvan contra nosotros.

La principal preocupación de Russell es la forma cómo sus desarrolladores humanos han programado esta inteligencia: tienen la tarea de optimizar sus tareas tanto como sea posible, básicamente a cualquier costo.

Y así se vuelven "ciegos" e indiferentes a los problemas (o, en última instancia, a la destrucción) que pueden causar a los humanos.

El genio salió de la botella

Para explicarle esto a BBC News Brasil, Russell utiliza la metáfora de un genio de una lámpara que cumple los deseos de su maestro.

"Le pides al genio que te convierta en la persona más rica del mundo, y así sucede, pero solo porque el genio hizo que el resto de las personas desaparecieran", dice.

"(En IA) construimos máquinas con lo que yo llamo los modelos estándar: ellas reciben objetivos que tienen que lograr u optimizar, para los cuales encuentran la mejor solución posible. Y luego llevan a cabo esa acción".

Incluso si esta acción es, en la práctica, perjudicial para los humanos, argumenta.

"Si construimos la IA para optimizar un objetivo fijo dado por nosotros, ellas (las máquinas) serán como psicópatas, persiguiendo ese objetivo y siendo completamente ajenas a todo lo demás, incluso si les pedimos que se detengan".

Un ejemplo cotidiano de esto, dice Russell, son los algoritmos que rigen a las redes sociales, que se han vuelto tan evidentes en los últimos días con el colapso global que afectó a Facebook, Instagram y WhatsApp durante unas seis horas.

La tarea principal de estos algoritmos es mejorar la experiencia del usuario en las redes sociales. Como, por ejemplo, recopilando la mayor información posible sobre ese usuario y proporcionándole contenido que se adapte a sus preferencias para que permanezcan conectados por más tiempo.

Incluso si esto se produce a expensas del bienestar del usuario o la ciudadanía global, continúa el investigador.

"Si construimos la Inteligencia Artificial para optimizar un objetivo fijo dado por nosotros, ellas (las máquinas) serán casi como psicópatas, persiguiendo ese objetivo y siendo completamente ajenos a todo lo demás, incluso si les pedimos que se detengan".

FUENTE DE LA IMAGEN,GETTY IMAGES

Pie de foto,

"Si construimos la Inteligencia Artificial para optimizar un objetivo fijo dado por nosotros, ellas (las máquinas) serán casi como psicópatas, persiguiendo ese objetivo y siendo completamente ajenos a todo lo demás, incluso si les pedimos que se detengan".

"Las redes sociales crean adicción, depresión, disfunción social, tal vez extremismo, polarización de la sociedad y, tal vez contribuyen a difundir desinformación", señala Russell.

"Y está claro que sus algoritmos están diseñados para optimizar un objetivo: que las personas hagan clic, que pasen más tiempo enganchadas con el contenido", continúa.

"Y, al optimizar estas cantidades, podemos estar causando enormes problemas a la sociedad".

No obstante, prosigue Russel, esos algoritmos no se someten a un escrutinio lo suficiente como para ser verificados o "arreglados", por lo que siguen trabajando para optimizar su objetivo, indistintamente del daño colateral.

"(Las redes sociales) no solo están optimizando lo incorrecto, sino que también están manipulando a las personas, porque al manipularlas consigue aumentar su compromiso. Y si puedo hacerte más predecible, por ejemplo, transformándote en un ecoterrorista extremo, puedo enviarte contenido ecoterrorista y asegurarme de que hagas clic para optimizar mis clics".

Estas críticas fueron reforzadas la semana pasada por la ex trabajadora de Facebook (y actual informante) Frances Haugen, quien testificó ante una audiencia del Congreso de Estados Unidos.

Haugen dijo que las redes sociales "dañan a los niños, provocan divisiones y socavan la democracia".

Facebook ha reaccionado diciendo que Haugen no tiene suficiente conocimiento para hacer tales afirmaciones.

IA con "valores humanos"

Russell, a su vez, explicará sus teorías a una audiencia de investigadores brasileros el próximo 13 de octubre durante una conferencia de la Academia Brasileña de Ciencias de forma virtual.

El investigador, autor de "Compatibilidad Humana: Inteligencia artificial y el problema del control", es considerado pionero en el campo al que él llama "inteligencia artificial compatible con la existencia humana".

Frances Haugen, ex empleada de Facebook, acusó a la empresa y sus productos de "dañar a los niños, causar división y socavar la democracia".

FUENTE DE LA IMAGEN,REUTERS

Pie de foto,

Frances Haugen, ex empleada de Facebook, acusó a la empresa y sus productos de "dañar a los niños, causar división y socavar la democracia".

"Precisamos de un tipo completamente diferente al sistema de IA", opina Russell.

Este tipo de IA, prosigue, tendría que "saber" que tiene limitaciones, que no puede cumplir sus objetivos a ningún costo y que, incluso siendo una máquina, puede estar errada.

"Haría que esta inteligencia se comportase de un modo completamente diferente, más cautelosa (…), que va a pedir permiso antes de hacer algo cuando no tiene certeza de si es lo que queremos. Y, en un caso más extremo, que querría ser apagada para no hacer algo que nos va a perjudicar. Ese es mi mensaje principal".

La teoría defendida por Russell no forma parte de un consenso: hay quienes no consideran amenazante ese modelo vigente de IA.

Un ejemplo famoso de los dos lados de este debate ocurrió algunos años atrás, en una discusión pública entre los empresarios de tecnología Mark Zuckerberg y Elon Musk.

Mark Zuckerberg tiene una visión optimista del modelo actual de Inteligencia Artificial

FUENTE DE LA IMAGEN,REUTERS

Pie de foto,

Mark Zuckerberg tiene una visión optimista del modelo actual de Inteligencia Artificial.

Un reportaje de The New York Times señala que, en una cena ocurrida en 2014, los dos empresarios debatieron entre sí.

Musk apuntó que el "realmente creía en el peligro" de la IA de volverse superior y subyugar a los humanos.

Zuckerberg, sin embargo, opinó que Musk estaba siendo alarmista.

En una entrevista de ese mismo año, el creador de Facebook se consideraba un "optimista" en cuando a IA y afirmó que los críticos, como Musk, "estaban creando escenarios apocalípticos e irresponsables".

"Siempre que escucho a gente diciendo que la IA va a perjudicar a las personas en el futuro, pienso que la tecnología generalmente puede ser usada para el bien o para el mal, y debes tener cuidado en cómo la construyes y en cómo va a ser usada. Pero encuentro cuestionable defender la ralentización del proceso de IA. No consigo entender eso".

Musk ha argumentado que la IA es "potencialmente más peligrosa que las ojivas nucleares".

Un lento e invisible desastre nuclear

Stuart Russell se suma a la preocupación de Musk y también traza paralelos con los peligros de la carrera nuclear.

"Creo que muchos (especialistas en tecnología) consideran este argumento (los peligros de la IA) amenazante porque básicamente dice que 'la disciplina en la que hemos estado durante varias décadas es potencialmente un riesgo'. Algunas personas ven eso como lo contrario a la IA", sustenta Russell.

Elon Musk ha dicho que considera que la inteligencia artificial es "potencialmente más peligrosa que las ojivas nucleares".

FUENTE DE LA IMAGEN,REUTERS

Pie de foto,

Elon Musk ha dicho que considera que la inteligencia artificial es "potencialmente más peligrosa que las ojivas nucleares".

"Mark Zuckerberg cree que los comentarios de Elon Musk son anti IA, pero eso me suena ridículo. Es como decir que la advertencia de que una bomba nuclear podría explotar es un argumento anti físico. No es anti físico, es un complemento de la física, por haber creado una tecnología tan poderosa que puede destruir el mundo".

"De hecho, tuvimos (los accidentes nucleares) de Chernóbil y Fukushima, y la industria fue diezmada porque no prestó atención suficiente a los riesgos. Entonces, si quieres obtener beneficios de la IA, tiene que prestar atención a los riesgos".

La actual falta de control sobre los algoritmos de las redes sociales, argumenta Russell, puede causar "enormes problemas para la sociedad" a escala global. Pero, a diferencia de un desastre nuclear, este es "lento y de modo casi invisible".

¿Cómo revertir entonces este curso?

Para Russell, puede ser necesario un rediseño completo de los algoritmos de las redes sociales. Pero, primero, es necesario conocerlos a fondo, opina.

"Descubrir qué causa la polarización"

Russell señala que en Facebook, por ejemplo, ni siquiera en el consejo independiente encargado de supervisar a la red social tiene acceso pleno al algoritmo que hace curaduría del contenido visto por los usuarios.

"Pero hay un gran grupo de investigadores y un gran proyecto en marcha en la Global Partnership en AI (GPAI según sus siglas en inglés), trabajando con una gran red social, que no puedo identificar, para obtener acceso a datos y hacer experimentos", dice Russell.

"Lo principal es hacer experimentos con grupos de control, ver con las personas qué está causando la polarización social y depresión y (ver) si al cambiar el algoritmo mejora eso".

"No le estoy diciendo a las personas que dejen de usar las redes sociales o que son inherentemente malvadas", prosigue Russell.

"(El problema) es la forma cómo los algoritmos funcionan, el uso de likes, de subir contenido (con base en las preferencias) o su eliminación. El modo en cómo el algoritmo escoge qué colocar en la pantalla parece basarse en métricas que son perjudiciales para las personas".

"Por lo tanto, debemos poner el beneficio del usuario como objetivo principal y eso va a hacer que las cosas funcionen mejor y que la gente este feliz de usar sus sistemas", sentencia.

No habrá una respuesta única sobre qué es "beneficioso". Por lo tanto, argumenta el investigador, los algoritmos tendrán que adaptar ese concepto para cada usuario individualmente, una tarea que, el propio Russell admite, no es nada fácil.

"De hecho, esta (área de las redes sociales) será una de las más difíciles donde se pondrá en práctica este nuevo modelo de IA", afirma.

"Creo realmente tenemos que empezar todo desde cero. Es posible que acabemos entendiendo la diferencia entre manipulación aceptable e inaceptable".

Continua Russell: "Por ejemplo, en el sistema educativo, manipulamos a los niños para volverlos ciudadanos conocedores, capaces, exitosos y bien integrados. Y consideramos eso aceptable".

"Pero si ese mismo proceso volviese a los niños terroristas, sería una manipulación inaceptable. ¿Cómo exactamente diferencias entre ambos? Es una cuestión muy difícil. Las redes sociales suscitan estos cuestionamientos bastante difíciles que hasta los filósofos tienen dificultades en responder", dice el investigador.

Noticias
Recomendadas