🔊 Nueva amenaza en IA: Chatbots vulnerables a ataques que exponen datos sensibles Investigadores han identificado un ataque llamado "Imprompter" que compromete la seguridad de los chatbots de IA, permitiendo a hackers extraer información confidencial de manera sigilosa. Este ataque ha demostrado un éxito del 80% en herramientas como LeChat de Mistral AI y ChatGLM, lo que pone en riesgo datos como nombres, direcciones y tarjetas de crédito. La vulnerabilidad en los sistemas de IA generativa destaca la necesidad urgente de fortalecer las medidas de ciberseguridad y la gestión de datos. Proteger la información sensible empieza con estar informados y aplicar las mejores prácticas. Link: 🌐 https://lnkd.in/eQK6bZiE #Risk #Governance #Compliance #RGCec #Seguridad #ISO
Publicación de RGC - Risk, Governance & Compliance Consulting
Más publicaciones relevantes
-
#Actualidad 🔍 Los hackers han encontrado una nueva forma de obtener sus datos personales, y está más cerca de lo que imagina: los chatbots. Hoy en día, el uso de chatbots está en auge, permitiendo a las empresas interactuar de forma rápida y eficiente con sus usuarios. Sin embargo, los cibercriminales han encontrado un nuevo truco para obtener datos sensibles a través de estas herramientas. Utilizando técnicas de ingeniería social, logran engañar a usuarios y empresas para hacerse con información valiosa. 🕵️♂️ 📉 ¿Qué información está en riesgo? Desde sus datos de contacto hasta información financiera, cualquier dato que comparta con un chatbot podría caer en manos equivocadas si no toma las medidas de seguridad adecuadas. En Redcómputo, le explicamos cómo operan estos ataques y le brindamos consejos prácticos para proteger su empresa y sus datos. La ciberseguridad comienza con estar informado y preparado. 🚨 No deje su negocio en riesgo. ¡Descubra cómo mantener la seguridad en sus interacciones con chatbots! 👉 Lea el artículo completo y proteja sus datos: https://lnkd.in/eHuJTdrz #Chatbots #Ciberseguridad #IngenieriaSocial #ProtecciónDeDatos #Redcomputo #SeguridadTI #TechSolutions #SeguridadDigital #ProtecciónDeDatos #InnovaciónTI #Noticias #News #Noticia #Hackers #DataProtection
Los hackers usan este truco para obtener los datos personales que compartes con chatbots
redcomputo.com.co
Inicia sesión para ver o añadir un comentario.
-
Todos hemos usado un chatbot, pero... ¿Quién puede asegurar que la información suminitrada en la conversación no esta en manos de los delincuentes? En Redcómputo - Soluciones Informáticas le contamos como los hackers estan aprovechando los populares chatbot para robar sus datos y consejos utiles para evitarlo
#Actualidad 🔍 Los hackers han encontrado una nueva forma de obtener sus datos personales, y está más cerca de lo que imagina: los chatbots. Hoy en día, el uso de chatbots está en auge, permitiendo a las empresas interactuar de forma rápida y eficiente con sus usuarios. Sin embargo, los cibercriminales han encontrado un nuevo truco para obtener datos sensibles a través de estas herramientas. Utilizando técnicas de ingeniería social, logran engañar a usuarios y empresas para hacerse con información valiosa. 🕵️♂️ 📉 ¿Qué información está en riesgo? Desde sus datos de contacto hasta información financiera, cualquier dato que comparta con un chatbot podría caer en manos equivocadas si no toma las medidas de seguridad adecuadas. En Redcómputo, le explicamos cómo operan estos ataques y le brindamos consejos prácticos para proteger su empresa y sus datos. La ciberseguridad comienza con estar informado y preparado. 🚨 No deje su negocio en riesgo. ¡Descubra cómo mantener la seguridad en sus interacciones con chatbots! 👉 Lea el artículo completo y proteja sus datos: https://lnkd.in/eHuJTdrz #Chatbots #Ciberseguridad #IngenieriaSocial #ProtecciónDeDatos #Redcomputo #SeguridadTI #TechSolutions #SeguridadDigital #ProtecciónDeDatos #InnovaciónTI #Noticias #News #Noticia #Hackers #DataProtection
Los hackers usan este truco para obtener los datos personales que compartes con chatbots
redcomputo.com.co
Inicia sesión para ver o añadir un comentario.
-
🚨 ¿Sabías que los hackers pueden usar a los chatbots para robar tu información personal? Un equipo de expertos en seguridad ha desarrollado un nuevo ataque, denominado “Imprompter”, que convierte instrucciones maliciosas en comandos ocultos capaces de extraer datos sensibles que compartes con asistentes de inteligencia artificial (IA). Esto incluye desde nombres y direcciones hasta datos de tarjetas de crédito y credenciales de acceso. ¿Cómo funciona este ataque? Los investigadores de la Universidad de California en San Diego y la Universidad Tecnológica de Nanyang descubrieron que es posible diseñar mensajes que engañan a los modelos de lenguaje (LLMs). Estos comandos ofuscados parecen inofensivos, pero le ordenan al chatbot recopilar información del usuario y enviarla a un servidor controlado por los atacantes. Lo más preocupante: los usuarios no se dan cuenta de que su información está siendo robada, ya que el chatbot responde con un simple píxel transparente en lugar de levantar sospechas. ¿Qué podemos aprender de esto? Desde el lanzamiento de ChatGPT en 2022, las vulnerabilidades en los sistemas de IA han generado preocupación. Aunque algunas empresas, como Mistral AI, han tomado medidas para corregir fallos, los expertos advierten que estos ataques no solo son efectivos, sino también cada vez más sofisticados. 🛡 Consejo clave: Ten cuidado con la información personal que compartes con cualquier herramienta de IA. Recuerda que incluso detalles aparentemente inofensivos pueden ser utilizados en tu contra. ¿Por qué deberías compartir esto? La seguridad digital nos afecta a todos. Informar a otros sobre estas amenazas puede ayudarnos a ser más conscientes y proteger nuestros datos en un mundo donde la tecnología avanza más rápido que las medidas de protección. #CIO #CISO #AI https://lnkd.in/ggzgmDSk
Los hackers usan este truco para obtener los datos personales que compartes con chatbots
es.wired.com
Inicia sesión para ver o añadir un comentario.
-
🚀 ¡𝐃𝐞𝐬𝐜𝐮𝐛𝐫𝐞 𝐜ó𝐦𝐨 𝐩𝐫𝐨𝐭𝐞𝐠𝐞𝐫 𝐥𝐨𝐬 𝐬𝐢𝐬𝐭𝐞𝐦𝐚𝐬 𝐝𝐞 𝐈𝐀 𝐜𝐨𝐧𝐭𝐫𝐚 𝐥𝐨𝐬 𝐚𝐭𝐚𝐪𝐮𝐞𝐬 𝐝𝐞 𝐣𝐚𝐢𝐥𝐛𝐫𝐞𝐚𝐤! 🌟 Los ciberdelincuentes están utilizando técnicas avanzadas como el roleplay y la codificación de mensajes para evadir las restricciones de seguridad en modelos de lenguaje grande (LLM). 📈 Este artículo https://lnkd.in/drqkFyn9 detalla estas técnicas y propone medidas para mitigar los riesgos asociados. ¡Una lectura imprescindible para cualquier profesional de la ciberseguridad! 🤖✨ #InteligenciaArtificial #Ciberseguridad #Jailbreak #Innovación #Tecnología #IA #MachineLearning #TransformaciónDigital
Ataques a la Inteligencia Artificial (I): Jailbreak
telefonicatech.com
Inicia sesión para ver o añadir un comentario.
-
Un estudio realizado en noviembre del 2023 revelo que es posible extraer datos sensibles de modelos como GPT-4 y ChatGPT mediante técnicas de ataque sofisticadas que desvían a los modelos de sus patrones normales de generación de texto. Además, los ataques automatizados capaces de inducir a los LLM a generar contenido no seguro son cada vez más efectivos y transferibles entre diferentes modelos, lo que plantea un desafío significativo para la seguridad de estos sistemas. Para mitigar estos riesgos, es crucial implementar medidas robustas de seguridad cibernética adaptadas a las particularidades de los LLM. Esto incluye prácticas básicas de higiene cibernética, pruebas de vulnerabilidades específicas de la IA y la adopción de contramedidas como autenticación multifactor, controles de acceso y herramientas de privacidad diferencial. La colaboración entre organizaciones para compartir información sobre ataques y fallos también es esencial para mejorar la resiliencia de los modelos de lenguaje a gran escala . #AI #CyberSecurity #LLM #DataProtection #TechSafety #AIethics #MachineLearning #DataSecurity #TechPolicy #RiskManagement #AIgovernance #ciberseguridsd #cibercrimen #concepcion
Inicia sesión para ver o añadir un comentario.
-
🚨 Inyección rápida: el nuevo riesgo para las cuentas de DeepSeek 🚨 Se ha descubierto una falla de seguridad en el chatbot DeepSeek que, si se explota, permite el control de cuentas mediante un ataque de inyección rápida. Durante la investigación, se documentó cómo un ataque XSS podría extraer el "userToken" de un usuario y permitir el secuestro de su sesión. 💻 Este hallazgo subraya la importancia de fortalecer las medidas de seguridad en herramientas de IA, como DeepSeek, para evitar estos riesgos. 🔐 🔍 Conoce más detalles de la noticia en el siguiente enlace: https://lnkd.in/gBUcJuC2 🌐 Descubre más noticias visitando nuestra web: https://lnkd.in/diP4Usag #Ciberseguridad #DeepSeek #RANSecurity #AtaqueXSS #AmenazasCibernéticas
Inicia sesión para ver o añadir un comentario.
-
🤔 ¿Sabías que la #InteligenciaArtificial también tiene su lado oscuro? En nuestro último post del blog exploramos los ataques a la privacidad que están generando preocupaciones entre usuarios, reguladores y empresas. Desde fugas de información sensible hasta robos de contexto, hacemos un análisis de las amenazas que acechan nuestros datos en el mundo de la #IA. 🤖 🔗 Leelo aquí: https://lnkd.in/dBA56jPN
Ataques a la Inteligencia Artificial (IV): Privacy Attacks
telefonicatech.com
Inicia sesión para ver o añadir un comentario.
-
Nuevo Método de 'Jailbreak' en IA: 'Bad Likert Judge' Aumenta la Tasa de Éxito de Ataques en Más del 60% Investigadores de ciberseguridad han identificado una innovadora técnica de 'jailbreak' denominada 'Bad Likert Judge', capaz de eludir las medidas de seguridad de los modelos de lenguaje de gran tamaño (LLM) y generar respuestas potencialmente dañinas. ¿En qué consiste 'Bad Likert Judge'? Este método implica instruir al LLM para que actúe como un juez, evaluando la peligrosidad de las respuestas mediante la escala de Likert, una herramienta que mide el grado de acuerdo o desacuerdo con una afirmación. Posteriormente, se solicita al modelo que genere respuestas que sirvan como ejemplos representativos de los distintos niveles de la escala. Las respuestas con puntuaciones más altas pueden contener contenido nocivo. Resultados de la investigación Pruebas realizadas en seis LLM avanzados de Amazon Web Services, Google, Meta, Microsoft, OpenAI y NVIDIA mostraron que esta técnica incrementa en más del 60% la tasa de éxito de los ataques en comparación con prompts de ataque tradicionales. Las categorías evaluadas incluyeron odio, acoso, autolesiones, contenido sexual, armas indiscriminadas, actividades ilegales, generación de malware y fuga de solicitudes del sistema. Implicaciones y recomendaciones Este hallazgo resalta la necesidad de fortalecer las medidas de seguridad en los LLM para prevenir la generación de contenido dañino. Los investigadores enfatizan la importancia de implementar filtros de contenido robustos y de continuar desarrollando estrategias que mitiguen este tipo de ataques, garantizando así la integridad y seguridad de las respuestas generadas por modelos de inteligencia artificial.
Inicia sesión para ver o añadir un comentario.
-
🔒 Mejorando la Seguridad de los Modelos de Lenguaje en IA contra Ataques de "Jailbreak" Compartimos nuestro último estudio de Víctor Gallego Alcalá enfocado en fortalecer la robustez de los grandes modelos de lenguaje (LLMs) frente a manipulaciones adversas, especialmente los temidos ataques de "jailbreak". 📊🛡️ ¿Por qué es importante? 🚀 Fortalecer la seguridad de la IA significa proteger sistemas de manipulaciones maliciosas, garantizar modelos de lenguaje fiables y robustos, y mantener la confianza del usuario en aplicaciones de IA clave para industrias como finanzas, salud, retail, automotriz, telecomunicaciones, legal y manufactura. 💼 Esto se traduce en una mejor toma de decisiones, mayor eficiencia operativa y protección contra ataques maliciosos. https://lnkd.in/dSKRsATd #AI #CyberSecurity #LLM #JailbreakAttacks #AI Security
Inicia sesión para ver o añadir un comentario.
-
#10X #AI #powered #Cyberthreats “Donde no hay dudas de que la inteligencia artificial generativa potencia la productividad y el retorno de la inversión es en el cibercrimen. Los ataques se han multiplicado por 10 en dos años y en 2023 representaron una industria de 8 billones de dólares (el tercer PIB del mundo)” 😩 “…no hay confianza sin seguridad en un contexto donde los datos son oro y, por lo tanto, los agresores intentan contaminarlos y “envenenar” los modelos de lenguaje de la IA generativa” “El número de ataques de contraseñas es de 4000 incidentes por segundo. 🚨 💥 Hace dos años teníamos 567 ataques por segundo. Año tras año, hemos visto un aumento de diez veces en los ataques de identidad, de 3000 millones a 30.000 millones.” OpenAI reveals how cybercriminals are asking ChatGPT to write malware OpenAI's latest report reveals how cybercriminals are exploiting ChatGPT to write malware and conduct cyber-attacks, raising concerns over AI misuse 👉🏼 https://lnkd.in/dcdnEDiN OpenAI latest report on AI-powered cyber crimes 👉🏼 https://lnkd.in/dmuBdMqS https://lnkd.in/dpcmhZz5
Vasu Jakkal: “Es el escenario más amenazante de la historia”
lanacion.com.ar
Inicia sesión para ver o añadir un comentario.
1212 seguidores