Q*: el proyecto que preocupaba al CEO de ChatGPT por su potencial daño en la Humanidad

Investigadores de OpenAI alertaron sobre un avance en el desarrollo de la IA que tenía el potencial de amenazar a la humanidad: el misterioso proyecto "Q*".

El ámbito de la inteligencia artificial ha sido testigo recientemente de una intrincada trama relacionada con OpenAI y su CEO recién reincorporado, Sam Altman. Aunque hemos explorado previamente las tensiones y divisiones internas que llevaron a este enfrentamiento, Reuters ha revelado un nuevo punto de fricción entre la junta directiva y Altman, vinculado a un proyecto enigmático denominado "Q*".

Este conflicto surgió cuando algunos investigadores de OpenAI alertaron a la junta sobre un avance en el desarrollo de la inteligencia artificial que, según ellos, tenía el potencial de amenazar a la humanidad: el misterioso proyecto "Q*". Aunque los detalles específicos de los riesgos mencionados en la carta no han sido revelados, este suceso se ha identificado como uno de los factores clave que llevó al breve pero destacado exilio de Sam Altman durante cuatro días.

"Q*" —pronunciado como "Q-Star"— ha sido considerado por algunos dentro de OpenAI como un paso significativo hacia la consecución de la inteligencia artificial general (AGI), que implica sistemas autónomos capaces de superar a los humanos en la mayoría de las tareas económicamente valiosas.

El proyecto Q* se distingue por su capacidad para resolver problemas matemáticos complejos. A diferencia de la IA generativa de modelos como GPT, que ha demostrado habilidades en la escritura y traducción de lenguaje, la resolución de problemas matemáticos implica un nivel de razonamiento mucho más avanzado. GPT 4.0, por ejemplo, ha tenido que integrarse con la plataforma Wolfram|Alpha para realizar cálculos fiables.

Q* se basa en los principios del aprendizaje por refuerzo y, específicamente, en el concepto de 'Q-learning', un algoritmo centrado en comprender el valor de una acción en un estado específico para definir la mejor acción y maximizar la recompensa acumulativa a lo largo del tiempo. Un elemento clave en este proceso de toma de decisiones es el equilibrio entre 'exploración' (probar nuevas acciones) y 'explotación' (utilizar información conocida).

Sin embargo, durante las primeras pruebas del modelo, semanas antes del despido de Altman, surgieron preocupaciones sobre los riesgos asociados a la aceleración de los avances en este campo. Incluso Ilya Sutskever, el científico jefe de OpenAI y una figura clave en el despido de Altman, expresó inquietudes, a pesar de ser uno de los cientos de empleados que públicamente solicitó el retorno de Altman.

La misteriosa carta que los investigadores enviaron a la ahora destituida junta de OpenAI podría convertirse en un tema central de debate en las próximas semanas, al abordar el equilibrio entre el avance tecnológico y la responsabilidad. Recordando la polémica generada a principios de año por la carta abierta de Elon Musk y otros expertos sobre pausar los 'grandes experimentos de IA', la discusión sobre cómo avanzar de manera responsable en el ámbito de la inteligencia artificial podría intensificarse en el futuro cercano.

Utilizamos cookies para personalizar su experiencia. Si sigue navegando estará aceptando su uso. Más información.