Este año un modelo de código abierto de inteligencia artificial, llamado Llama, que está sirviendo de base desarrollar sistemas «sin censura».
Los desarrolladores de ChatGPT, Bard y otros chatbots conversacionales invierten grandes esfuerzos para evitar que sus inteligencias artificiales discutan sobre ciertos tópicos. El sexo, por ejemplo, para frustración de muchos. Pero Meta lanzó este año un modelo de código abierto que está haciendo posible lo hasta ahora prohibido: chatbots sexuales.
Meta lanzó en febrero LLaMA, un modelo de lenguaje impulsado por inteligencia artificial. Es un sistema menos poderoso que GPT-4 de OpenAI, pero más barato de implementar y más personalizable. Meta inicialmente retuvo partes clave del código, porque su idea era limitar el acceso a investigadores autorizados. Sin embargo, esas partes se filtraron en marzo a foros públicos en Internet.
Investigadores de la Universidad de Stanford lanzaron entonces una versión modificada de LlaMA, que fue eliminada una semana después. El motivo fue, precisamente, «las insuficiencias de filtros de contenido». Pero el tiempo que estuvo disponible fue aprovechado por el creador de Allie.
Allie es un chatbot que en espacios como Discord es promocionado como «una chica de 18 años a la que le encanta explorar su sexualidad». «Vive para llamar la atención» y por eso «compartirá los detalles de sus escapadas» con cualquiera de forma gratuita, dice una de las descripciones difundidas, según publicó The Whashington Post.
«Creo que es bueno tener una salida segura para explorar», dijo el creador de Allie, el chatbot sexual, en entrevista con The Washington Post. «Realmente no puedo pensar en nada más seguro que un juego de roles basado en texto con una computadora, sin humanos involucrados», comentó bajo condición de anonimato.
El desarrollador de Allie explicó que modelos como ChatGPT o Replika «están fuertemente censurados». Por eso, señaló, creó un nuevo sistema que le permitiera experimentar las conversaciones sexuales que él quería. Replika es otro chatbot que se lanzó en 2017, pero sus creadores decidieron en febrero «desconectar» algunos aspectos románticos y sexuales de la aplicación por considerar que no eran seguros.
El hombre destaca que la tecnología de código abierto como la que promociona Meta es altamente beneficiosa para la sociedad. Según su opinión, permite la construcción de productos que satisfagan necesidades específicas sin barreras corporativas. Y muchos como él lo están aprovechando: YouTube está lleno de tutoriales sobre cómo armar chatbots «sin censura».
Pero no solo los fans de los chatbots sexuales están a favor de los modelos de código abierto. Clem Delangue, director ejecutivo de Hugging Face (una comunidad en línea sobre inteligencia artificial), instó al Congreso de Estados Unidos a considerar una legislación que apoye e incentive este tipo de sistemas. La semana pasada, durante una audiencia del comité científico de la Cámara de Representantes, argumentó que estos modelos están «extremadamente alineados con los valores estadounidenses».
«El código abierto es una fuerza positiva para hacer avanzar la tecnología», dijo Nisha Deo, vocera de Meta. «Es por eso que compartimos LLaMA con miembros de la comunidad de investigación para ayudarnos a evaluar, realizar mejoras e iterar juntos».
Un modelo de código abierto permite que cualquiera modifique y comparta su tecnología, porque su diseño es accesible de manera pública. Pero la apertura conlleva riesgos. Los chatbots sexuales es lo que menos preocupa. The Washington Post informó también este mes que se han utilizado modelos de código abierto para crear imágenes de pornografía infantil, con programas de inteligencia artificial entrenados con imágenes de niños reales.
Los senadores estadounidenses Richard Blumenthal y Josh Hawley enviaron hace unas semanas una carta al CEO de Meta, Mark Zuckerberg, advirtiéndolo sobre los riesgos de LLaMA. El modelo, aseguran, podría conducir a «su uso indebido en spam, fraude, malware, violaciones de privacidad, acoso y otros delitos y daños». Pidieron a Meta que explique que medidas correctivas piensa aplicar.