Pocos debates han sido más largos y controvertidos en la industria informática que uno: ¿Es mejor el “código abierto” que el “cerrado” cuando se trata de desarrollo de software?
Este debate se reavivó cuando empresas como Google, Meta, OpenAI y Microsoft discreparon sobre cómo competir por la supremacía en los sistemas de inteligencia artificial. Algunos eligen un modelo cerrado mientras que otros adoptan un enfoque abierto.
Esto es lo que debe saber.
¿Qué significa software de código abierto?
El código fuente son los componentes básicos de las aplicaciones que utiliza. Los desarrolladores pueden escribir decenas de miles de líneas de código fuente para crear programas que se ejecutarán en una computadora.
El software de código abierto es cualquier código informático que se puede distribuir, copiar o modificar libremente para los fines del desarrollador. La Open Source Initiative, una organización industrial sin fines de lucro, establece otras disposiciones y estándares sobre qué software se considera de código abierto, pero se trata en gran medida de que el código sea gratuito y abierto para que cualquiera pueda usarlo y mejorarlo.
¿Cuáles son algunos ejemplos de software de código abierto?
Algunos de los sistemas de software más populares son de código abierto, como Linux, el sistema operativo sobre el que se construyó el sistema móvil Android de Google. Entre los productos de código abierto más conocidos se encuentra Firefox, el navegador web de descarga gratuita creado por la Fundación Mozilla.
Entonces, ¿cuál es el debate abierto y cerrado y cómo se relaciona con la IA?
Empresas tecnológicas como Google, OpenAI y Anthropic han gastado miles de millones de dólares en la creación de sistemas de IA “cerrados” o propietarios. Las personas que no trabajan para estas empresas no pueden ver ni modificar el código fuente subyacente, ni tampoco los clientes que pagan por usarlo.
Durante mucho tiempo esto no fue la norma. La mayoría de estas empresas han abierto su investigación de IA para que otros ingenieros puedan estudiar y mejorar el trabajo. Pero cuando los ejecutivos de tecnología comenzaron a darse cuenta de que la búsqueda de sistemas de inteligencia artificial más avanzados podría valer miles de millones, comenzaron a bloquear su investigación.
Las empresas de tecnología argumentan que esto es por el bien de la humanidad porque estos sistemas son lo suficientemente poderosos como para causar daños sociales catastróficos si se colocan en las manos equivocadas. Los críticos dicen que las empresas simplemente quieren mantener la tecnología alejada de los aficionados y competidores.
Meta adoptó un enfoque diferente. Mark Zuckerberg, director ejecutivo de Meta, ha decidido abrir el código abierto del modelo de lenguaje grande de su empresa, un programa que aprende habilidades analizando grandes cantidades de texto digital recopilado de Internet. La decisión de Zuckerberg de abrir el modelo de Meta, LLaMA, permite a cualquier desarrollador descargarlo y utilizarlo para crear sus propios chatbots y otros servicios.
En una entrevista reciente en un podcast, Zuckerberg dijo que ninguna organización debería tener “capacidades verdaderamente superinteligentes que no sean ampliamente compartidas”.
¿Es mejor abierto o cerrado?
Depende de a quien le preguntes.
Para muchos tecnólogos y aquellos que abrazan la cultura hacker incondicional, el código abierto es el camino a seguir. Las herramientas de software que pueden cambiar el mundo deberían distribuirse libremente, afirman, para que cualquiera pueda utilizarlas para crear tecnologías interesantes y apasionantes.
Otros creen que la inteligencia artificial ha avanzado tan rápidamente que los creadores de estos sistemas deberían mantenerla atenta para protegerla de abusos. El desarrollo de estos sistemas también cuesta enormes cantidades de tiempo y dinero, y los modelos cerrados deberían pagarse, afirman.
El debate ya se ha extendido más allá de Silicon Valley y de los entusiastas de la informática. Los legisladores de la Unión Europea y Washington han celebrado reuniones y tomado medidas hacia marcos regulatorios de IA, incluidos los riesgos y beneficios de los modelos de IA de código abierto.