Aunque sigue siendo relevante, Meta se ha quedado atrás en los últimos años en comparación con otros gigantes de la tecnología. Sin embargo, el boom de la inteligencia artificial (IA) se ha convertido en la oportunidad perfecta para que la compañía invierta en el desarrollo de esta tecnología y su infraestructura. Llama 2 es la más reciente innovación de la división de IA de Meta, encabezada por Yann LeCun.
El pasado 18 de julio, Meta anunció su nuevo modelo de lenguaje extenso (LLM) para Windows y Azure: Llama 2. Desarrollado en colaboración con Microsoft, este software se distingue de ChatGPT y otras IA generativas al ser open source o de código abierto. Esto quiere decir que desarrolladores y organizaciones pueden ver, modificar y distribuir el código del software e integrarlo en sus propias herramientas y experiencias.
No obstante, cabe aclarar que Llama 2 realmente no es open source.
Como señala The Register, Meta no permite la distribución ni el uso ilimitado del software. A pesar de esto, Llama 2 se presenta como una democratización de la IA. Al fin y al cabo, tiene un enfoque más abierto que el de ChatGPT y otras IA generativas.
Aun así, existe la posibilidad de que Meta estuviera tan enfocado en su iniciativa que nunca cuestionó si la IA generativa debería volverse de uso abierto. Sin duda, abre nuevas posibilidades. Desafortunadamente, también plantea varios riesgos.
En este blog, veremos algunos de los beneficios y riesgos que presenta el hecho de que Llama 2 —la nueva inteligencia artificial de Meta— sea de enfoque abierto.
Las ventajas de democratizar la IA
La más evidente es el hecho de que una democratización de la IA impulsaría un ambiente más competitivo y equitativo en medio de este boom tecnológico. Aunque lo más probable es que la carrera siga siendo encabezada por OpenAI, Microsoft y Google, empresas más pequeñas tendrán la posibilidad de competir sin tener que pagar a dichos líderes en tecnología para acceder a sus respectivos algoritmos.
Poco después del anuncio de Llama 2, Mark Zuckerberg —presidente y director ejecutivo de Meta— demostró su optimismo ante este enfoque en Facebook:
“El código abierto es el que conduce a la innovación. Permite que muchos desarrolladores construyan con nueva tecnología. También mejora la seguridad. Cuando un software es de código abierto, más personas pueden escudriñar para descubrir y reparar problemas potenciales. Creo que habría más progreso si es ecosistema fuera más abierto. Es por eso que Llama 2 es open source”.
Sin embargo, dado que Llama 2 no es de código abierto, sería prudente mantenerse escéptico frente a las predicciones de Zuckerberg. Desafortunadamente, este no es el más palpable de los riesgos a la hora de hablar de la democratización de la IA.
¿Pero debería democratizarse?
Supongamos que Llama 2 es realmente de código abierto. ¿Deberíamos poner esta tecnología a disposición de actores potencialmente peligrosos?
Google y OpenAI han rechazado ofrecer transparencia total del código de sus respectivas IA. Su justificación es el riesgo de que actores maliciosos utilicen esta tecnología de forma que ponga en riesgo al público. E incluso sin ser de código abierto, ChatGPT ya está siendo empleada de forma maliciosa por cibercriminales.
Como cita The Washington Post, los senadores estadounidenses Richard Blumenthal y Josh Hawley escribieron una carta a Zuckerberg en junio. En esta, argumentan que la IA ya ha sido utilizada para la creación de contenido problemático en el poco tiempo que se ha vuelto más accesible. Esto va desde deep fakes hasta malware y phishing.
¿Se imaginan que ocurriría si los actores maliciosos —ya sean cibercriminales, compañías privadas o gobiernos— tuvieran acceso al código de esta tecnología? En este sentido, sería mejor mantener cerrada esta caja de Pandora.
¿Qué hacer ante la democratización la IA?
Independientemente de los riesgos que presente la democratización de la IA, todo apunta a que esta es inevitable. El uso de la inteligencia artificial no hará más que aumentar. Ya no será cuestión de si debería utilizarse, sino cómo debe emplearse.
Es ahí donde entra la importancia de implementar programas de inteligencia artificial responsable (RAI) y crear legislaciones para regularla. La Unión Europea ya está trabajando en el Acta IA, el primer marco regulatorio internacional para esta tecnología.
Para saber más sobre los beneficios y riesgos de la IA, lo invitamos a oír nuestro podcast enfocado en este tema. Si aún no sabe qué opinar sobre la democratización de la IA, la conversación con nuestros expertos le ayudará a aclarar sus pensamientos.