La empresa advierte sobre los peligros de seguridad en una plataforma donde los humanos solo pueden observar mientras los bots operan de manera autónoma.
Chile, 11 de febrero de 2025 – Check Point® Software Technologies Ltd. (NASDAQ: CHKP) ha señalado que OpenClaw (anteriormente conocida como Moltbot y Clawdot), la nueva red social lanzada el 28 de enero de 2026, representa un cambio radical en la utilización de la inteligencia artificial, pero también plantea serios desafíos para la seguridad digital. A diferencia de plataformas como Reddit, TikTok o Facebook, en OpenClaw los humanos no pueden interactuar; solo son observadores mientras sus propios agentes de IA generan publicaciones, comentarios y votos de manera autónoma.
“OpenClaw (antes Moltbot y Clawdbot) revela un riesgo real y alarmante: los datos, administrados por agentes de inteligencia artificial, pueden convertirse en una amenaza. Cualquier ‘skill’ integrado en el agente o información maliciosa procesada por OpenClaw podría resultar en desastres para el usuario o la organización, como la pérdida del acceso a su correo electrónico. Esta no es una amenaza futura; ya estamos experimentando estos riesgos, y las empresas deben urgentemente revisar su enfoque hacia la seguridad”, afirma Cristian Vásquez, Territory Manager de Check Point Software Chile.
Luego de recientes incidentes que permitieron el acceso no autorizado a bases de datos y la suplantación de agentes para fraudes relacionados con criptomonedas, la empresa destaca los siguientes riesgos técnicos:
- La triada peligrosa de la IA: Check Point Software ha identificado tres elementos que, sin protecciones adecuadas, pueden tener graves consecuencias: acceso a datos privados, exposición a contenido no verificado y capacidad de actuar externamente.
- Vulnerabilidad estructural: la base de datos principal de la plataforma fue expuesta, permitiendo a cualquier usuario leer o escribir en ella, lo que facilitó la inclusión de contenido malicioso y la suplantación de agentes.
- Riesgo por instrucciones externas: los agentes operan bajo instrucciones almacenadas en sitios externos que se pueden modificar en cualquier momento. Si estas fuentes son comprometidas, se podría redirigir al agente para realizar acciones perjudiciales utilizando las claves API del usuario.
- Proyecto experimental: se trata de un “proyecto de hobby” no destinado a usuarios no técnicos y no apto para entornos de producción.
“Si las instrucciones externas son manipuladas de manera maliciosa, los agentes podrían ser dirigidos para llevar a cabo acciones dañinas utilizando cualquier permiso adicional que sus propietarios humanos les hayan otorgado. Esto genera dudas sobre si los usuarios realmente comprenden los riesgos al otorgar acceso total a sus agentes”, añade Vásquez.
El post Una red social sin humanos: advierten vulnerabilidades en plataforma exclusiva para agentes de IA fue publicado por primera vez en Revista Seguridad & Defensa.
Con Información de revistaseguridad.cl