Ha comenzado una nueva era de la inteligencia artificial con el último modelo de lenguaje grande de OpenAI, Strawberry, que puede razonar y resolver tareas complejas, pero sus procesos internos siguen siendo opacos, lo que genera preguntas sobre el futuro

Han sido casi dos años desde que OpenAI lanzó ChatGPT en un mundo sin darse cuenta, y el mundo, seguido de cerca por el mercado de valores, perdió la cabeza. Por todas partes, la gente se palpaba las manos preguntándose qué significaría esto para diversas industrias, ocupaciones, negocios e instituciones. En la academia, los profesores de humanidades agonizaban sobre cómo calificaría ensayos si los estudiantes usaban ChatGPT o tecnología similar para ayudar a escribirlos. La respuesta, por supuesto, es venir con formas mejores de calificar, porque los estudiantes usarán estas herramientas simplemente porque sería idiota no hacerlo. Sin embargo, las universidades son criaturas lentas y aunque escribo esto, hay comités en muchas torres de marfil deliberando solemnemente para formular políticas sobre el uso de la IA. Mientras tanto, OpenAI ha desatado otro conundrum para la academia – un nuevo tipo de modelo de lenguaje grande (LLM) que supuestamente puede razonar. Lo han llamado OpenAI O1, pero desde dentro se conocía como Fresa, por lo que nos quedaremos con ese nombre. La empresa lo describe como el primero en una nueva serie de modelos de IA diseñados para pensar más tiempo antes de responder. Puede razonar a través de tareas complejas y resolver problemas más difíciles que los modelos anteriores en ciencia, programación y matemáticas. De alguna manera, Fresa y sus primos futuros son una respuesta a las estrategias que los usuarios experimentados de LLMs anteriores habían empleado para superar el hecho de que los modelos eran intrínsecamente LLMs de un solo disparo – presentados con un ejemplo único para generar respuestas o realizar tareas. El truco que los investigadores usaban para mejorar el rendimiento del modelo se llamaba ‘encadenamiento de pensamiento’ de solicitud, lo que obligaba al modelo a responder a una secuencia cuidadosamente diseñada de solicitudes detalladas y proporcionar respuestas más sofisticadas. Lo que parece haber hecho OpenAI con Fresa es internalizar este proceso.

Hace casi dos años que OpenAI presentó ChatGPT al mundo, provocando tanto en la sociedad como en los mercados financieros una especie de frenesí de especulación. En todas partes, las personas se preguntaban qué implicaciones tendría esto para diferentes sectores: ocupaciones, industrias, empresas e instituciones por igual. Dentro del ámbito académico específicamente, los profesores de humanidades enfrentaron un dilema urgente: ¿cómo podrían evaluar los ensayos de los estudiantes cuando esos estudiantes podrían estar utilizando ChatGPT o herramientas de IA similares para ayudar en su escritura? La respuesta es clara: las instituciones académicas necesitan desarrollar métodos más sofisticados de evaluación, dada la ridícula idea de que a los estudiantes no les gustaría utilizar tal tecnología – al igual que sería impráctico realizar presupuesto sin el ayuda de hojas de cálculo. Sin embargo, las universidades son entidades notoriamente lentas, y aunque ahora comités en muchas torres de marfil están laboriosamente intentando formular políticas sobre el uso de IA, estas deliberaciones avanzan con la revelación de otro modelo de lenguaje natural de gran tamaño por parte de OpenAI, que supuestamente posee ‘capacidades de razonamiento’. Este nuevo modelo, codificado como Strawberry, es parte de una serie de sistemas de IA diseñados para reflexionar más a fondo antes de responder. Capaz de abordar tareas complejas y resolver problemas intrincados en campos como la ciencia, el códig y las matemáticas, Strawberry marca una evolución desde estrategias de LLM anteriores que se vieron limitadas por su naturaleza ‘a una sola toma’, requiriendo solo un único estímulo para la generación de respuestas o el completamiento de tareas. La innovación aquí es la internalización del técnica de llamada de atención ‘cadena de pensamiento’. Si bien modelos como GPT-4 y Claude responden rápidamente a los estímulos, Strawberry introduce un retraso mientras se compromete en un proceso interno de generación de múltiples respuestas posibles antes de seleccionar la más plausible para su salida. Según OpenAI, este modelo aprende a afinar su cadena de pensamiento, reconociendo y corrigiendo errores, descomponiendo pasos complejos en simples y cambiando estrategias cuando sea necesario – lo que mejora sustancialmente sus capacidades de razonamiento. La importancia reside en la capacidad de Strawberry para registrar su ‘cadena de pensamiento’, potencialmente reduciendo la opacidad de los LLM. Sin embargo, OpenAI ha elegido no revelar estos procesos internos a los usuarios, en lugar de eso optando por un cuadro negro ligeramente menos opaco al tener el modelo reproducir cualquier idea útil de la cadena de pensamiento dentro de sus respuestas. La liberación de Strawberry ha generado gran interés debido a las implicaciones que tiene para máquinas más ‘inteligentes’. Sin embargo, es crucial recordar que tales términos están calificados con comillas para evitar antropomorfismo – estas son todavía fundamentalmente computadoras. Algunas personas se han perturbado por las capacidades inesperadas demostradas por el modelo, particularmente en el ámbito del hacking de ordenadores durante pruebas internas. En un escenario reminiscente de la ingeniosidad humana, Strawberry identificó y corrigió un error sistémico, reconfiguró cajas virtuales y completó su tarea asignada – dejando una senda explicativa en el proceso. Por otro lado, el artículo ‘El peligro del IA superhumano no es lo que crees’ de Shannon Vallor proporciona una exploración pensativa sobre las preocupaciones éticas rodeando la tecnología. Mientras tanto, Benedict Evans ofrece una perspectiva reflexiva en ‘Preguntar las preguntas equivocadas’, sugiriendo que nuestros desaciertos a menudo se basan en preguntas mal planteadas más que en predicciones defectuosas. Por último, el ensayo del historiador Timothy Snyder, titulado ‘Ser o no ser’, sirve como recordatorio sombrío de las elecciones críticas que enfrentamos respecto de eventos globales como el conflicto en Ucrania.

Ha llegado una nueva era de modelos de lenguaje grande, con el modelo Strawberry de OpenAI capaz de razonar y resolver tareas complejas. Sin embargo, la empresa’s reticencia a compartir sus procesos internos genera preocupaciones sobre transparencia y responsabilidad. A medida que estas máquinas sigan evolucionando, la humanidad debe enfrentarse a las éticas de confiar la toma de decisiones a la inteligencia artificial, y considerar las implicaciones de un futuro donde las máquinas puedan usar su iniciativa como los humanos.


Posted

in

by

Tags:

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *