La Muerte de OpenAI

La empresa detrás de ChatGPT, OpenAI, ha experimentado un cambio estructural significativo, pasando de una organización sin fines de lucro a una entidad para fines de lucro. Este cambio otorga al CEO Sam Altman una participación sustancial y control sobre la empresa, lo que genera preocupaciones acerca de la misión original de OpenAI de priorizar la seguridad y beneficiar a la humanidad. El movimiento se aparta de los principios fundadores de OpenAI de no estar limitado por obligaciones financieras y centrarse en el impacto humano positivo. Si bien OpenAI afirma que sigue comprometida con su misión, los críticos argumentan que la reestructuración impulsada por ganancias erosiona su visión inicial y plantea preguntas éticas sobre la redistribución potencial de miles de millones desde el público hacia inversionistas. Esta transformación destaca la necesidad de regulaciones sólidas para supervisar a las grandes empresas de inteligencia artificial y garantizar un desarrollo y despliegue responsable de la inteligencia artificial.

La empresa OpenAI, que presentó a ChatGPT al mundo, ha sido recientemente criticada por su cambio de dirección. Fundada inicialmente como una organización sin fines de lucro con la misión de avanzar en inteligencia artificial (IA) para el beneficio de la humanidad, manteniéndose libre de obligaciones financieras, OpenAI ahora está transicionando a una empresa de ganancias plena y con beneficios. Este cambio se anunció esta semana, junto con la noticia de que la jefa de tecnología Mira Murati había dejado la compañía abruptamente, causando confusión y desazón entre empleados que reaccionaron con incredulidad en su plataforma de mensajería interna.

El cambio del estatus de sin fines de lucro a beneficios plenos marca una significativa divergencia de los principios fundacionales de OpenAI. Ya en 2019, OpenAI comenzó a establecer una subsidiaria de ganancias para asegurar inversiones sustanciales necesarias para la investigación y el desarrollo de IA. Sin embargo, mantuvo cierta semblanza de su misión original al limitar la cantidad de beneficios que los inversores podían realizar, con excedentes dirigidos hacia iniciativas de beneficio público.

A pesar de esto, los críticos argumentan que a lo largo del tiempo, OpenAI ha priorizado cada vez más la comercialización sobre las preocupaciones por la seguridad. En 2023, las tensiones entre el CEO Sam Altman y la junta sin fines de lucro llegaron a un punto álgido, llevando a un intento de removerlo de su posición. Fue reinstalado posteriormente con una junta más alineada con su visión. Este año, el equipo de seguridad de OpenAI experimentó un masivo éxodo como los empleados perdieron fe en la liderazgo de Altman.

La última reestructuración ha sido recibida con condenaciones generalizadas por su supuesto desafío a la misión original. Empleados como Jeffrey Wu, quien se unió a OpenAI en 2018 y trabajó en modelos tempranos como GPT-2 y GPT-3, han expresado su decepción. Sarah Kreps de Cornell’s Tech Policy Institute también criticó el cambio, afirmando que diverge significativamente del énfasis fundacional de OpenAI sobre la seguridad, transparencia y evitación de concentración de poder.

El movimiento ha levantado preguntas sobre su legalidad, especialmente desde que podría reorientar potencialmente miles de millones de dólares de una organización sin fines de lucro a inversores de ganancias. Jacob Hilton, un ex empleado de OpenAI, señaló que tal cambio podría verse como incompatible con el estatuto de OpenAI, que prioriza el beneficio de la humanidad sobre el beneficio financiero.

La respuesta de OpenAI ha sido limitada a referirse a su declaración en Bloomberg, donde reiteraron su compromiso con el beneficio para todos y la continuación del brazo sin fines de lucro. A pesar de esta asunción, los críticos argumentan que las acciones de la empresa hablan más alto que sus palabras.

Los defensores de la seguridad en IA han llamado a la regulación para supervisar a las grandes empresas de IA durante mucho tiempo. Los recientes acontecimientos en OpenAI han reforzado su caso. Wu destaca que sin un adecuado control, existe el riesgo de que la implementación de IA resulte en enormes costos y riesgos. También respaldó las preocupaciones de los empleados anteriores que propusieron dar a los trabajadores el derecho de emitir advertencias sobre tecnologías avanzadas de IA.

El cambio en la postura de OpenAI no ha pasado desapercibido por parte de los formuladores de políticas. Críticos como Altman han afirmado durante mucho tiempo apoyar la regulación y priorizar la seguridad sobre el beneficio, pero sus acciones sugieren lo contrario. Este semana’s anuncio ha demostrado que OpenAI está más interesada en el beneficio financiero que en la misión original de garantizar el desarrollo seguro de IA para la humanidad.

El gobernador Newsom y el Congreso están siendo instados a tomar nota de estos desarrollos y considerar la aprobación de regulaciones para supervisar eficazmente las empresas de IA. El mundo está observando mientras OpenAI se reestructura, potencialmente alterando el curso de investigación en IA y su impacto en la sociedad.

La visión original de OpenAI, una organización sin fines de lucro dedicada al desarrollo de inteligencia artificial segura y beneficiosa para la humanidad, ha sido abandonada. La búsqueda del CEO Sam Altman por ganancias y consolidación de poder han llevado a la transformación de OpenAI en una entidad lucrativa, privando al consejo sin fines de lucro de su control y potencialmente reorientando miles de millones desde el público hacia los inversionistas. Este cambio brusco destaca la necesidad urgente de regulaciones sólidas para las empresas de IA para mitigar riesgos y asegurar prácticas éticas en el desarrollo.


Posted

in

by

Tags:

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *