9 de febrero de 2026
OpenClaw
OpenClaw no está teniendo éxito solo porque es técnicamente impresionante. Está teniendo éxito porque promete algo que mucha gente viene deseando en silencio: delegar todo. No solo tareas, sino responsabilidad.
Varios artículos recientes están alertando sobre los riesgos de OpenClaw: agente de IA open source, acceso total al computador del usuario, filtración de credenciales, Cisco llamándolo una pesadilla. Todo eso es serio. Pero no es el punto más interesante de esta historia.
OpenClaw no está teniendo éxito solo porque es técnicamente impresionante. Está teniendo éxito porque promete algo que mucha gente viene deseando en silencio: delegar todo. No solo tareas, sino responsabilidad. No solo ejecución, sino decisión.
No es un copiloto. Es un operador. Usa el computador como un humano, navega por herramientas, accede a archivos, conecta sistemas y simplemente resuelve. O al menos aparenta resolver. El modelo mental detrás de eso es simple y peligrosamente seductor: "resuélvelo ahí". Sin brief claro. Sin criterio explícito. Sin métricas. Sin plan.
Desde el punto de vista del Product Management, eso no es innovación disruptiva. Es un espejo incómodo. Muestra cuánto estamos dispuestos a cambiar claridad por conveniencia y pensamiento por velocidad.
Cuando un agente recibe autonomía total, no solo está ejecutando. Está interpretando objetivos, definiendo prioridades y tomando decisiones en tu lugar. Y en la mayoría de los casos, sin que puedas explicar después por qué algo salió bien o mal. El famoso resultado que parece magia cuando funciona e inexplicable cuando falla.
Existe una frase clásica atribuida a Peter Drucker: lo que no puede medirse, no puede gestionarse. Independientemente de la autoría exacta, la lógica es implacable. Si no defines criterios, si no estableces límites, si no mides, no estás automatizando. Estás tercerizando el juicio.
Y ahí el problema deja de ser solo seguridad de la información. Pasa a ser seguridad cognitiva.
Un estudio reciente de Anthropic ya apunta en esa dirección: el uso indiscriminado de IA en la toma de decisiones debilita el hábito humano de pensar, evaluar alternativas y anticipar consecuencias. No porque la IA piense demasiado. Sino porque el humano piensa menos.
Esto no es un discurso contra los agentes autónomos. Son inevitables y, bien diseñados, extremadamente poderosos. El problema comienza cuando la autonomía se convierte en caja negra y la conveniencia en excusa para abdicar de la responsabilidad.
Como PM, el rol no es impedir la automatización. Es crear guardrails. Definir qué puede delegarse y qué requiere juicio humano. Exigir explicabilidad. Crear checkpoints. Autonomía sin gobernanza no es productividad. Es ilusión.
Al final, OpenClaw no solo expone un riesgo técnico. Revela algo más incómodo: nuestra prisa por dejar de decidir.
La pregunta no es si vamos a automatizar. Eso ya ocurrió.
La pregunta es: ¿quién sigue pensando?