WhatsApp, la popular plataforma de mensajería, anunció que a partir de enero de 2026 prohibirá el uso de chatbots de inteligencia artificial generativa desarrollados por terceros en su aplicación.

Meta, la empresa matriz de WhatsApp, comunicó oficialmente que a partir del 15 de enero de 2026, los chatbots de IA generativa de propósito general desarrollados por terceros dejarán de estar permitidos en la plataforma. Esto incluye bots populares como ChatGPT, Luzia, Perplexity y otros desarrolladores externos, tanto en la API de WhatsApp Business como en la versión estándar de la aplicación. Solamente Meta AI, el asistente propio de la compañía, podrá operar como chatbot dentro de WhatsApp.
Según reporta el medio especializado Xataka, «WhatsApp prohíbe los chatbots de inteligencia artificial generales de terceros: entrará en vigor en enero de 2026, solo se mantendrá Meta AI«. Por su parte, el portal tecnológico The Verge destaca que «A partir del 15 de enero de 2026, los chatbots de terceros estarán prohibidos en la plataforma y Meta AI se convertirá en el único chatbot principal disponible en WhatsApp«.
El endurecimiento de las regulaciones, especialmente en la Unión Europea con la inminente entrada en vigor de la AI Act, y en Estados Unidos, ha motivado a empresas como Meta a anticiparse y adaptar sus políticas para evitar sanciones y mantener la confianza de los usuarios que cada vez demandan mayor protección de su información personal.
Expertos alertan sobre riesgos de seguridad y desinformación
Expertos en ciberseguridad, como Marijus Briedis de NordVPN, advierten que la integración de IA generativa en aplicaciones de mensajería puede facilitar la recopilación y el análisis de grandes volúmenes de datos, lo que incrementa los riesgos para la privacidad y la seguridad de los usuarios. Además, la posibilidad de que estos chatbots sean utilizados para difundir información falsa o manipular conversaciones a gran escala es una preocupación central para los reguladores y la propia industria.
Kaspersky, firma reconocida en ciberseguridad, ha señalado que «la IA puede facilitar la recopilación y el análisis de grandes volúmenes de datos, lo que podría ser incompatible con los principios de privacidad que WhatsApp ha defendido históricamente», según citó Infobae.
La noticia ha generado inquietud entre empresas y desarrolladores que han invertido en la integración de chatbots de IA en WhatsApp para automatizar la atención al cliente, ventas y otros procesos clave. Atom Chaat, proveedor de soluciones de IA, señala que «la IA en WhatsApp no es solo una tendencia, sino una necesidad para mantenerse competitivos».
Las empresas, especialmente PYMEs, temen perder una herramienta esencial para la eficiencia operativa y la experiencia del cliente. Muchas ya están evaluando alternativas, como migrar sus flujos de atención a otras plataformas de mensajería o reforzar la integración de chatbots en canales propios que no dependan de las restricciones de WhatsApp.
Desarrolladores y empresas han solicitado mayor claridad por parte de WhatsApp/Meta sobre el alcance y los detalles de la prohibición, así como la apertura de un diálogo para encontrar soluciones que permitan el uso responsable de la IA sin comprometer la privacidad ni la seguridad de los usuarios que utilizan estos servicios diariamente.
La decisión de WhatsApp no es aislada en el panorama tecnológico mundial. Otras plataformas de mensajería y redes sociales han implementado restricciones similares para proteger a los usuarios, especialmente a los menores, y responder a las crecientes preocupaciones regulatorias y sociales sobre el uso de la inteligencia artificial.
Meta ha restringido el uso de chatbots de IA en Messenger e Instagram para adolescentes, y OpenAI ha modificado las políticas de ChatGPT tras demandas legales y críticas públicas.