Telefónica y Multiverse Computing han desarrollado un modelo de inteligencia artificial comprimida que reduce hasta un 75% el consumo energético, destinado a apoyar a los agentes de atención al cliente de Movistar. La iniciativa marca un paso relevante en la búsqueda de sistemas más eficientes y sostenibles dentro del sector de las telecomunicaciones.
El proyecto se centra en la compresión de modelos de lenguaje que respaldan el chatbot interno utilizado por los agentes. Esta tecnología permite ofrecer respuestas más rápidas, con menos demanda de hardware y un coste operativo reducido. Telefónica prevé integrar estos modelos en la iniciativa “Movistar por ti”, orientada a agilizar las consultas y mejorar la experiencia del usuario.
La colaboración ha logrado comprimir los modelos Llama 3.1 8B y Llama 3.3 70B de Meta mediante técnicas de inspiración cuántica aplicadas por Multiverse Computing. El resultado es una reducción del 80% en el tamaño de los modelos, lo que disminuye la necesidad de almacenamiento sin afectar a la calidad de las respuestas.
Índice de temas
Menor impacto energético y despliegue local
Uno de los aspectos clave es la posibilidad de ejecutar estos modelos tanto en la nube como en las propias instalaciones de Telefónica. Este despliegue local permite recortar el consumo energético hasta un 75%, reforzando así el compromiso de la compañía con la reducción del impacto ambiental.
Además, al operar en centrales que utilizan energía 100% renovable, las emisiones asociadas al uso de IA se reducen de forma significativa. La solución se orienta a un uso más eficiente de los recursos tecnológicos sin comprometer la capacidad de análisis y respuesta de los sistemas internos.
Apertura tecnológica y uso futuro
Los modelos originales empleados son de código abierto, una línea que Telefónica considera estratégica para fomentar neutralidad tecnológica, seguridad y adopción acelerada de la IA. Este enfoque facilita la integración de nuevas herramientas y la evolución de los sistemas existentes.
La compañía prevé que el uso de modelos comprimidos permita mantener la calidad de los grandes modelos de lenguaje utilizando un hardware más reducido, lo que implica un abaratamiento de los costes tanto en la nube como en despliegues locales. Este avance abre la puerta a soluciones de IA escalables en entornos empresariales con un consumo mínimo de recursos.
Con este desarrollo, Telefónica y Multiverse Computing avanzan hacia un modelo de inteligencia artificial más accesible y sostenible, orientado a mejorar procesos internos y reducir la huella energética de las operaciones digitales.








