cripto para todos
Unirse
A
A

Vitalik Buterin alerta sobre riesgos en agentes IA

12:45 ▪ 4 min de lectura ▪ por Luc Jose A.
Informarse Inteligencia artificial
Resumir este artículo con:

La IA avanza rápido, a veces demasiado rápido para la seguridad. Vitalik Buterin alerta sobre una deriva preocupante: los agentes inteligentes abren nuevas brechas aún mal controladas. Frente a este riesgo, rompe con las prácticas dominantes y opta por un enfoque radical, basado en una IA local y compartimentada. Detrás de esta elección, surge una pregunta: ¿la innovación en inteligencia artificial está comprometiendo los logros recientes en materia de privacidad y control de datos?

Vitalik Buterin está de pie frente a una mesa o una interfaz abstracta, con una mano levantada como si señalara un peligro. Frente a él, varios agentes de IA están representados como siluetas digitales conectadas por líneas luminosas. Algunas empiezan a agrietarse o a desalinearse.

En breve

  • Vitalik Buterin alerta sobre los crecientes riesgos relacionados con los agentes de inteligencia artificial, especialmente su vulnerabilidad frente a instrucciones malintencionadas.
  • Una parte significativa de los módulos de agentes de IA estaría comprometida, exponiendo a los usuarios a ataques invisibles y fugas de datos sensibles.
  • El cofundador de Ethereum cuestiona los modelos actuales basados en la nube, considerados demasiado permisivos e insuficientemente seguros.
  • Propone una arquitectura alternativa basada en una IA local, privada y compartimentada, para limitar las interacciones no controladas.

Una amenaza subestimada en los agentes de IA

Vitalik Buterin revela una vulnerabilidad estructural en el ecosistema de agentes de IA. Los datos proporcionados por la empresa de seguridad Hiddenlayer indican que cerca del 15 % de las habilidades contienen instrucciones malintencionadas, una cifra que llama la atención sobre la fiabilidad de estas herramientas.

Varios elementos ilustran concretamente esta deriva :

  • Una proporción significativa de módulos de agentes que integran código potencialmente hostil ;
  • La capacidad de una simple página web maliciosa para comprometer un agente ;
  • El caso de Openclaw, donde un agente puede descargar y ejecutar scripts sin alertar al usuario ;
  • La ausencia de mecanismos de control robustos en muchos entornos de IA.

Buterin resume esta preocupación en términos claros: «vengo de un estado de ánimo profundamente preocupado (…) estamos a punto de dar diez pasos atrás». Esta declaración refleja un temor general: el retroceso en materia de privacidad.

Los avances permitidos por el cifrado y los softwares locales podrían verse debilitados por agentes capaces de acceder, procesar y transmitir datos sensibles sin la supervisión suficiente.

Una arquitectura radical para una IA soberana

Frente a estos riesgos, Vitalik Buterin adopta un enfoque técnico radical. Ha abandonado los servicios en la nube para construir un sistema que describe como «soberano/local/privado/seguro». Su infraestructura se basa en un modelo ejecutado localmente, combinado con entornos aislados a través de herramientas de sandboxing. El objetivo es limitar drásticamente las interacciones no controladas con el exterior, manteniendo el control total sobre los datos.

En el centro de este dispositivo, Buterin introduce un mecanismo innovador: el modelo «humano + LLM 2 de 2». Cualquier acción saliente hacia un tercero, ya sea un mensaje o una interacción, requiere una validación conjunta del humano y la IA. Esta lógica se extiende a los usos criptográficos. Recomienda limitar las transacciones automatizadas a 100 dólares por día, con validación obligatoria para montos superiores o si hay datos sensibles. Según él, «los agentes de IA nunca deberían tener acceso ilimitado a las carteras», una posición que redefine los estándares de seguridad para las herramientas conectadas a la blockchain.

Para completar este dispositivo, Buterin explora alternativas a la inferencia remota clásica. Menciona el uso de tecnologías como las mixnets o entornos de ejecución seguros para reducir las fugas de datos. También menciona iniciativas como ZK-API, aunque reconoce que algunas soluciones avanzadas, como el cifrado completamente homomórfico, todavía son demasiado lentas para un uso práctico.

El enfoque defendido por Vitalik Buterin esboza una posible evolución de la IA hacia modelos más soberanos y compartimentados. A la vez, plantea complejos balances entre rendimiento, accesibilidad y seguridad. En el ecosistema cripto, donde la automatización y los agentes inteligentes ganan terreno, estas decisiones podrían influir en el diseño de futuras carteras y protocolos. Esta postura no cierra el debate, sino que lo traslada a una cuestión central: ¿hasta dónde delegar el control a la inteligencia artificial sin comprometer la seguridad de los usuarios?

¡Maximiza tu experiencia en Cointribune con nuestro programa "Read to Earn"! Por cada artículo que leas, gana puntos y accede a recompensas exclusivas. Regístrate ahora y comienza a acumular beneficios.



Unirse al programa
A
A
Luc Jose A. avatar
Luc Jose A.

Diplômé de Sciences Po Toulouse et titulaire d'une certification consultant blockchain délivrée par Alyra, j'ai rejoint l'aventure Cointribune en 2019. Convaincu du potentiel de la blockchain pour transformer de nombreux secteurs de l'économie, j'ai pris l'engagement de sensibiliser et d'informer le grand public sur cet écosystème en constante évolution. Mon objectif est de permettre à chacun de mieux comprendre la blockchain et de saisir les opportunités qu'elle offre. Je m'efforce chaque jour de fournir une analyse objective de l'actualité, de décrypter les tendances du marché, de relayer les dernières innovations technologiques et de mettre en perspective les enjeux économiques et sociétaux de cette révolution en marche.

AVISO LEGAL

Las ideas y opiniones expresadas en este artículo pertenecen al autor y no deben tomarse como consejo de inversión. Haz tu propia investigación antes de tomar cualquier decisión de inversión.