OpenAI, la empresa de IA desarrolladora de ChatGPT, habla —en un artículo publicado hace unas horas— de apostar por el 'superalineamiento'. Recordemos que 'alineamiento' es el nombre que designa al proceso de asegurarnos de que el comportamiento de una IA se ajusta a las expectativas humanas (de cara a evitar un potencial comportamiento 'poco ético' de la misma o, peor, una rebelión a lo Skynet).
Pero, ¿qué es el 'superalineamiento', entonces? Pues el alineamiento de la 'superinteligencia artificial' o ASI, claro. El divulgador de IA español Carlos Santana señala en un hilo de Twitter que, "desde hace un par de artículos, [OpenAI] ya no habla tanto de AGI, sino del siguiente escalón que es la ASI. Dicen que la ven lejos… pero que se podría alcanzar en esta década".
"Como siempre con OpenAI, este post cae en esa franja difusa en la que no sabemos si realmente se creen su relato del desarrollo acelerado de la IA o si es una hipérbole más para atraer atención e interés en lo que realmente quieren, que en este caso es contratar".
En Genbeta
Aún no hemos alcanzado la 'IA general', pero según OpenAI debemos pensar cómo regularemos el siguiente paso: la 'superinteligencia'
'Who watches the watch-AIs?'
Actualmente, este proceso de alineamiento depende en gran medida de la intervención humana, en la que los etiquetadores generan una enorme cantidad de ejemplos de conversaciones y comportamientos deseados… pero al depender …