Hace dos días, anunciamos que GitHub y OpenAI habían lanzado GitHub Copilot, una herramienta capaz de autocompletar y generar código recurriendo a la inteligencia artificial.
Que GitHub Copilot sea capaz de 'aprender' de código preexistente escrito por humanos y sugerir fragmentos de código (en ocasiones, de funciones completas) es una gran noticia que evidencia el progreso del machine learning… pero que causa dudas y temores en otros ámbitos.
Uno de ellos es el laboral (¿hay futuro para los desarrolladores ahora que la IA está aprendiendo a programar?); y el otro es estrictamente legal, pues supone todo un reto a la hora de dictaminar a qué licencias debe estar sujeto el software resultante."¿Cómo?" —os preguntaréis— "¿No puedo decidir yo la licencia del software que programe si cuento con la asistencia de Copilot?".
En Xataka
Para qué programar cuando una máquina lo hace (un poco) por ti: así es Github Copilot, un sistema que se nutre del prodigioso GPT-3
Bueno, no hay unanimidad a la hora de responder a esa pregunta. En HackerNews se ha abierto un animado debate a raíz del tuit de una programadora, @eevee, que afirma lo siguiente:
"GitHub Pilot ha sido, según admiten ellos mismos, entrenado con montañas de código GPL, por lo que no tengo claro cómo no constituye una forma de blanquear código abierto para [poder usarlo] en proyectos comerciales. Su afirmación de que 'por lo general no reproduce fragmentos exactos' …