06 jun 2024 , 17:38

Un ex empleado de OpenAI advierte sobre el riesgo de una IA más inteligente que los humanos

Empleados revelan preocupaciones en la industria de la IA.

Un ex empleado de OpenAI ha alzado la voz junto con otros colegas para destacar la falta de transparencia en torno a los potenciales riesgos de la inteligencia artificial (IA).

Fitbit Ace LTE: la nueva forma de incentivar el movimiento en niños

Carroll Wainwright, quien recientemente renunció a su cargo en el equipo de alineamiento práctico y superalineamiento de la empresa, señaló el peligro en la búsqueda desenfrenada de una superinteligencia artificial, conocida como inteligencia artificial general (IAG), que pueda rivalizar o incluso superar la capacidad humana.

Wainwright, cuyo trabajo previo en OpenAI incluyó investigaciones sobre el alineamiento ético de modelos de IA, explica que su renuncia fue motivada en parte por un cambio en la visión de la empresa.

Imagen de referencia.
Imagen de referencia. ( )

Lo que comenzó como un laboratorio de investigación sin fines de lucro con un enfoque en el beneficio humano, ahora parece estar impulsado en gran medida por incentivos financieros, según las afirmaciones de Wainwright.

El rápido avance de la IA, ejemplificado por el éxito de productos como ChatGPT, ha avivado las preocupaciones sobre los riesgos asociados con la eventual creación de una IAG.

A diferencia de la IA generativa actual, que puede replicar algunas acciones humanas como escribir o dibujar, una IAG tendría la capacidad no solo de imitar, sino de comprender el contexto y la complejidad de sus acciones.

Imagen de referencia.
Imagen de referencia. ( )

Aunque la tecnología necesaria para una IAG aún no existe, las predicciones de expertos como Elon Musk sugieren que podría materializarse en un plazo relativamente corto, quizás en unos cinco años.

Uno de los principales temores de Wainwright es el impacto potencial de la IAG en el empleo y la sociedad en general. La posible sustitución de trabajadores por máquinas, el impacto en la salud mental y social de tener asistentes personales de IA, y la cuestión del control sobre estas tecnologías emergentes son preocupaciones que requieren una atención inmediata.

En un esfuerzo por abordar estos riesgos, los empleados del sector de la IA están pidiendo la implementación de regulaciones sólidas y a la creación de mecanismos que permitan a los trabajadores alertar sobre los peligros potenciales de sus propias empresas.

Aunque algunas iniciativas regulatorias están en marcha, como la ley de IA de la Unión Europea, que entrará en vigor en 2026, aún existe una falta de consenso y acción global en este sentido.

Imagen de referencia.
Imagen de referencia. ( )

Además, se informa que los reguladores de Estados Unidos están preparando investigaciones antimonopolio contra gigantes tecnológicos como Microsoft, OpenAI y Nvidia, reflejando la creciente preocupación por la influencia desproporcionada de estas empresas en el sector de la IA.

Noticias
Recomendadas