cripto para todos
Unirse
A
A

Vitalik Buterin propone una alternativa para asegurar la IA

10:10 ▪ 6 min de lectura ▪ por Fenelon L.
Informarse Inteligencia artificial

Cuando ChatGPT se convierte en un espía a pesar de sí mismo, la alerta se vuelve imposible de ignorar. El cofundador de Ethereum se une a la ola de inquietudes tras el descubrimiento de una falla crítica que permite la exfiltración de datos personales a través de la IA de OpenAI. Una alerta que resuena especialmente en el ecosistema crypto donde la seguridad sigue siendo primordial.

Vitalik Buterin descubre con asombro una tableta de IA que muestra un ojo digital amenazante, vigilado por sombras misteriosas.

En resumen

  • Vitalik Buterin alerta sobre las fallas de seguridad de ChatGPT y critica la gobernanza ingenua de la IA.
  • Un ingeniero de Oxford demuestra cómo ChatGPT puede ser hackeado mediante simples invitaciones de calendario.
  • Estas vulnerabilidades se suman a las masivas filtraciones de conversaciones de ChatGPT ya indexadas por Google.

Una falla preocupante que pone a ChatGPT en la cuerda floja

Un ingeniero de software graduado de Oxford, Eito Miyamura, recientemente dio la voz de alarma en X (ex-Twitter). 

El miércoles pasado, reveló una falla de seguridad mayor en ChatGPT, tras el despliegue completo por OpenAI del protocolo MCP (Model Context Protocol). Esta actualización permite al chatbot acceder directamente a servicios personales como Gmail, Google Calendar o SharePoint.

Miyamura y su equipo realizaron un experimento tan ingenioso como preocupante. Su conclusión: es posible exfiltrar datos sensibles mediante una simple invitación a un evento en el calendario de la víctima. 

Esta invitación contiene una «invitación de jailbreak» oculta. Si el usuario acepta la invitación y luego le pide a ChatGPT que organice su día, la IA consulta el calendario, lee el mensaje tramposo y… ejecuta las órdenes del atacante. 

Resultado: los correos privados pueden ser analizados y los datos enviados automáticamente a una dirección maliciosa.

«Los agentes de IA como ChatGPT siguen tus órdenes, no tu sentido común.«, resume Miyamura. 

Y ahí radica el peligro. A medida que los usuarios se acostumbran a hacer clic mecánicamente en «aprobar» ante las sugerencias de la IA, las puertas de entrada para ataques se vuelven más numerosas y más fáciles de explotar.

Vitalik Buterin alerta sobre una falla crítica en la IA

Esta alerta no pasó desapercibida para Vitalik Buterin. El cofundador de Ethereum, acostumbrado a anticipar las desviaciones tecnológicas, reaccionó subrayando que es un ejemplo perfecto de lo que él llama una «gobernanza ingenua de la IA». 

En otras palabras, confiar tareas críticas — como administrar fondos o accesos sensibles — a un solo LLM (modelo de lenguaje) centralizado es tender la mano a los atacantes. Los jailbreaks son la prueba de ello.

Como alternativa, Buterin defiende el modelo de infofinanzas. En lugar de un sistema cerrado, aboga por:

  • un mercado abierto donde cada uno pueda proponer sus propios modelos;
  • controles puntuales («spot checks») activados por cualquiera, para verificar el comportamiento de los modelos;
  • una evaluación por jurados humanos, para asegurar transparencia y solidez.

Este tipo de arquitectura, explica, es más resiliente: la diversidad de modelos impide la concentración del riesgo, y los incentivos integrados impulsan a los actores a monitorear y corregir rápidamente las fallas.

Un fenómeno más amplio que cuestiona nuestra relación con los datos

Esta vulnerabilidad se inscribe en un contexto mucho más alarmante revelado en las últimas semanas. Miles de conversaciones generadas por ChatGPT — hechas públicas por sus usuarios mediante la función «Compartir» — han sido indexadas por Google y archivadas en la Wayback Machine. 

Estos intercambios exponen una multitud de datos sensibles: confesiones personales, información médica, expedientes de recursos humanos o incluso elementos estratégicos de empresas.

Pero el problema va mucho más allá de una simple imprudencia individual. La verdadera amenaza reside en la estructuración misma de estas conversaciones. La IA no produce fragmentos aislados, sino relatos completos, lógicos, encadenados. 

Conecta ideas, mantiene el hilo del contexto y construye una narración fluida con introducción, desarrollo, conclusión… y a menudo, referencias cruzadas. Este formato da a las filtraciones una coherencia terriblemente explotable.

Donde antes un atacante debía ensamblar fragmentos dispersos, ahora accede a un corpus listo para usar, donde nombres, fechas, intenciones y decisiones están contextualizados, jerarquizados y directamente utilizables. Esta estructuración automática incrementa considerablemente el valor estratégico de la más mínima fuga de datos.

Frente a la magnitud de esta exposición, OpenAI desactivó rápidamente la función de compartir indexable y pidió a Google retirar los resultados afectados. Pero eso no es suficiente. Las copias archivadas en entornos externos, como la Wayback Machine, siguen accesibles… y fuera del alcance de las solicitudes de eliminación.  Estos datos permanecen accesibles, persistentes y potencialmente explotables a largo plazo.

En resumen, la alerta de Vitalik Buterin no busca demonizar la IA, sino responsabilizar a sus creadores y usuarios. Si la inteligencia artificial se convierte en una navaja suiza digital, también puede transformarse en una hoja de doble filo. Para evitarlo, la seguridad debe dejar de ser una opción y convertirse en una arquitectura.

¡Maximiza tu experiencia en Cointribune con nuestro programa "Read to Earn"! Por cada artículo que leas, gana puntos y accede a recompensas exclusivas. Regístrate ahora y comienza a acumular beneficios.



Unirse al programa
A
A
Fenelon L. avatar
Fenelon L.

Apasionado por Bitcoin, me encanta explorar los intrincados detalles de la blockchain y las criptomonedas y comparto mis descubrimientos con la comunidad. Mi sueño es vivir en un mundo donde la privacidad y la libertad financiera estén garantizadas para todos, y creo firmemente que Bitcoin es la herramienta que puede hacer esto posible.

AVISO LEGAL

Las ideas y opiniones expresadas en este artículo pertenecen al autor y no deben tomarse como consejo de inversión. Haz tu propia investigación antes de tomar cualquier decisión de inversión.