Anthropic lanza modo automático de Claude, mejorando su autonomía y capacidad de procesamiento en el ordenador.
En un giro notable en el desarrollo de inteligencia artificial, la firma Anthropic ha presentado un nuevo modo automático para su herramienta Claude Code. Este sistema está diseñado para permitir que la IA tome decisiones sobre qué acciones son seguras y cuáles representan un riesgo, lo que busca mejorar la eficiencia y disminuir la necesidad de que los usuarios aprueben cada paso en proyectos de mayor escala.
En la actualidad, los permisos de Claude Code funcionan con un enfoque "deliberadamente conservador". Esto significa que cada operación, ya sea la edición de archivos o la ejecución de comandos, requiere la aprobación del usuario, lo que puede obstaculizar el inicio de tareas más complejas al interrumpir el flujo de trabajo con constantes solicitudes de autorización.
Para sortear estas interrupciones, los desarrolladores tienen la opción de utilizar el comando '--dangerously-skip-permissions', que permite omitir los permisos. No obstante, esta alternativa conlleva serios riesgos, incluidos posibles resultados imprevistos, lo que no la hace adecuada para entornos controlados.
A fin de encontrar un punto medio que permita la realización de trabajos más extensos sin tantas interrupciones, Anthropic ha introducido esta nueva modalidad automática. En este modo, antes de que Claude realice una acción, un clasificador revisa si se trata de una operación "potencialmente destructiva".
El propósito de esta revisión, tal como ha indicado la empresa, es identificar acciones que pudieran ser peligrosas, como la eliminación masiva de archivos o la exposición de datos sensibles. Gracias a este procedimiento, las tareas consideradas seguras podrán ser ejecutadas automáticamente, mientras que aquellas que impliquen riesgos se detendrán, obligando a la IA a adoptar un enfoque diferente. Si la IA continúa insistiendo en llevar a cabo acciones bloqueadas, el usuario deberá otorgar su aprobación.
El nuevo modo automático, por tanto, busca minimizar las complicaciones asociadas con los permisos predeterminados de Claude Code. Sin embargo, Anthropic ha sugerido que este modo se use en entornos aislados, ya que no elimina completamente los riesgos:
El clasificador puede permitir ciertas acciones peligrosas si no cuenta con suficiente contexto o si la solicitud del usuario es "ambigua". Al mismo tiempo, también puede bloquear acciones que, aparentemente, son inofensivas.
Actualmente, este modo automático está disponible para su prueba en el plan de suscripción Team, y se espera que pronto se extienda a las opciones Enterprise y a los usuarios de la API. Es importante señalar que esta función aún no está totalmente desarrollada y solo es compatible con los modelos Claude Sonnet 4.6 y Opus 4.6.
Otra novedad es que los usuarios ahora pueden habilitar a Claude en sus computadoras para que realice tareas de manera autónoma, utilizando las herramientas Claude Cowork y Claude Code. El modelo podrá ejecutar tareas directamente en el ordenador, teniendo acceso a archivos locales y aplicaciones, y notificará a los usuarios una vez complete su trabajo.
Según ha comunicado Anthropic, en casos donde Claude no disponga de las herramientas necesarias, será capaz de navegar por la pantalla del ordenador para realizar la tarea automáticamente, lo que indica un nivel de autonomía significativo. Esto significa que podrá abrir archivos, utilizar navegadores y ejecutar herramientas de desarrollo sin necesidad de intervención del usuario.
Esta nueva función ya está disponible en versión preliminar para los usuarios de Claude Pro y Max, y se integra con la función de Dispatch, permitiendo asignar tareas a Claude desde dispositivos móviles para que las ejecute en el ordenador.
Anthropic ha enfatizado que esta capacidad se ha desarrollado con estrictas medidas de seguridad para mitigar riesgos, incluyendo el potencial de inyección de código malicioso. El modo automático estará atento a determinar si las acciones son seguras, buscando prevenir cualquier actividad riesgosa mientras Claude opera en el ordenador.