
Aviso urgente de BBVA: sus clientes toman nota, más peligroso de lo que piensas
BBVA no quiere que te lleves un susto de muerte y manda un mensaje definitivo para que no caigas en la trampa
BBVA ha lanzado una advertencia que ha puesto en alerta a empresas y empleados. Es un fenómeno que está creciendo y que puede ser más peligroso de lo que muchos imaginan. El banco espera que este aviso llegue alto y claro: la prudencia no es opcional.
La inteligencia artificial en la sombra o shadow AI es el uso de herramientas no autorizadas por una empresa para realizar tareas laborales. Por ejemplo, alguien puede copiar un informe confidencial y pegarlo en un chat de IA para reformularlo.
No te fíes un pelo de esta IA: BBVA te advierte de los peligros
Parece útil, pero ese simple gesto puede tener consecuencias graves. BBVA advierte que esas herramientas pueden guardar y reutilizar la información. Si alguien sube datos personales o documentos estratégicos, pierde el control sobre ellos.

La advertencia de BBVA no es exagerada, la shadow AI expone datos que deberían permanecer protegidos. Al manejar información sensible sin supervisión, se corren riesgos enormes, pueden filtrarse datos confidenciales y podríamos violar normativas como el RGPD. Además, esa misma información puede ser usada por ciberdelincuentes para crear ataques más creíbles.
La shadow AI te puede meter en problemas: las empresas deben saberlo
BBVA ha sido firme en su decisión, ha lanzado un aviso a las empresas y sus empleados para que dejen de usar estas herramientas no autorizadas. El mensaje es claro, no usar aplicaciones de IA fuera de los canales oficiales es parte de proteger datos y reputación. No es una opción, es una obligación.
BBVA también ha señalado qué prácticas deben seguirse siempre y las empresas deben implantar políticas claras. Los equipos deben estar formados y conocer los riesgos. Se recomienda no copiar información confidencial fuera de herramientas corporativas.

Tampoco iniciar sesión con credenciales de empresa en servicios externos. Y, por supuesto, hay que utilizar siempre soluciones autorizadas por los departamentos de tecnología o seguridad.
No debe eclipsar el sentido común las ganas de acceder a la IA
BBVA hace una llamada a la reflexión, cuando usamos IA en la sombra, podemos estar incurriendo en consecuencias fatales para la seguridad corporativa. La euforia por acceder a estas herramientas no debe eclipsar el sentido común. El peligro no está solo en la tecnología, sino en la decisión de usar lo no homologado.
Es una decisión firme para proteger datos y evitar acciones no deseadas. La prudencia es ahora más importante que nunca. La shadow AI puede parecer útil, pero su uso sin control trae peligro y consecuencias que no podemos permitir.
Más noticias: