Una investigación científica que acaba de ser publicada recuerda que la transparencia en el código es esencial para combatir los peligros de la información engañosa. Y, aunque ChatGPT haya llegado al mundo sorprendiendo por sus impresionantes capacidades de comprender el lenguaje natural, llevar a cabo muchísimas funciones y respondernos a muchas dudas, no hay por qué depender al 100% de una sola herramienta que, a su vez, depende de unas pocas empresas.
Aunque ya hemos visto que hay vida más allá de ChatGPT y que contamos con alternativas (aunque muchas de ellas se basan en las capacidades de esta inteligencia artificial para darnos los resultados), además de las que están llegando con otros gigantes tech como Google, hay muchos expertos y expertas que plantean la necesidad de contar con una herramienta de este estilo pero que sea abierta.
En Genbeta
China asusta en inteligencia artificial, pero se estaba quedando atrás frente a DALL-E y ChatGPT. Ya le han puesto solución
Dice un informe realizado por diversas investigadoras para Nature que ChatGPT muestra como unos de los problemas más inmediatos para la comunidad investigadora la falta de transparencia. Los conjuntos de entrenamiento subyacentes y los LLM (grandes modelos lingüísticos) de ChatGPT y sus predecesores no están a disposición del público, y las empresas tecnológicas pueden ocultar el funcionamiento interno de sus IA conversacionales. Esto hace que la respuesta que da a problemas científicos no tenga por …