#Actualidad 🔍 Los hackers han encontrado una nueva forma de obtener sus datos personales, y está más cerca de lo que imagina: los chatbots. Hoy en día, el uso de chatbots está en auge, permitiendo a las empresas interactuar de forma rápida y eficiente con sus usuarios. Sin embargo, los cibercriminales han encontrado un nuevo truco para obtener datos sensibles a través de estas herramientas. Utilizando técnicas de ingeniería social, logran engañar a usuarios y empresas para hacerse con información valiosa. 🕵️♂️ 📉 ¿Qué información está en riesgo? Desde sus datos de contacto hasta información financiera, cualquier dato que comparta con un chatbot podría caer en manos equivocadas si no toma las medidas de seguridad adecuadas. En Redcómputo, le explicamos cómo operan estos ataques y le brindamos consejos prácticos para proteger su empresa y sus datos. La ciberseguridad comienza con estar informado y preparado. 🚨 No deje su negocio en riesgo. ¡Descubra cómo mantener la seguridad en sus interacciones con chatbots! 👉 Lea el artículo completo y proteja sus datos: https://lnkd.in/eHuJTdrz #Chatbots #Ciberseguridad #IngenieriaSocial #ProtecciónDeDatos #Redcomputo #SeguridadTI #TechSolutions #SeguridadDigital #ProtecciónDeDatos #InnovaciónTI #Noticias #News #Noticia #Hackers #DataProtection
Publicación de Redcómputo - Soluciones Informáticas
Más publicaciones relevantes
-
Todos hemos usado un chatbot, pero... ¿Quién puede asegurar que la información suminitrada en la conversación no esta en manos de los delincuentes? En Redcómputo - Soluciones Informáticas le contamos como los hackers estan aprovechando los populares chatbot para robar sus datos y consejos utiles para evitarlo
#Actualidad 🔍 Los hackers han encontrado una nueva forma de obtener sus datos personales, y está más cerca de lo que imagina: los chatbots. Hoy en día, el uso de chatbots está en auge, permitiendo a las empresas interactuar de forma rápida y eficiente con sus usuarios. Sin embargo, los cibercriminales han encontrado un nuevo truco para obtener datos sensibles a través de estas herramientas. Utilizando técnicas de ingeniería social, logran engañar a usuarios y empresas para hacerse con información valiosa. 🕵️♂️ 📉 ¿Qué información está en riesgo? Desde sus datos de contacto hasta información financiera, cualquier dato que comparta con un chatbot podría caer en manos equivocadas si no toma las medidas de seguridad adecuadas. En Redcómputo, le explicamos cómo operan estos ataques y le brindamos consejos prácticos para proteger su empresa y sus datos. La ciberseguridad comienza con estar informado y preparado. 🚨 No deje su negocio en riesgo. ¡Descubra cómo mantener la seguridad en sus interacciones con chatbots! 👉 Lea el artículo completo y proteja sus datos: https://lnkd.in/eHuJTdrz #Chatbots #Ciberseguridad #IngenieriaSocial #ProtecciónDeDatos #Redcomputo #SeguridadTI #TechSolutions #SeguridadDigital #ProtecciónDeDatos #InnovaciónTI #Noticias #News #Noticia #Hackers #DataProtection
Los hackers usan este truco para obtener los datos personales que compartes con chatbots
redcomputo.com.co
Inicia sesión para ver o añadir un comentario.
-
🔊 Nueva amenaza en IA: Chatbots vulnerables a ataques que exponen datos sensibles Investigadores han identificado un ataque llamado "Imprompter" que compromete la seguridad de los chatbots de IA, permitiendo a hackers extraer información confidencial de manera sigilosa. Este ataque ha demostrado un éxito del 80% en herramientas como LeChat de Mistral AI y ChatGLM, lo que pone en riesgo datos como nombres, direcciones y tarjetas de crédito. La vulnerabilidad en los sistemas de IA generativa destaca la necesidad urgente de fortalecer las medidas de ciberseguridad y la gestión de datos. Proteger la información sensible empieza con estar informados y aplicar las mejores prácticas. Link: 🌐 https://lnkd.in/eQK6bZiE #Risk #Governance #Compliance #RGCec #Seguridad #ISO
Los hackers usan este truco para obtener los datos personales que compartes con chatbots
es.wired.com
Inicia sesión para ver o añadir un comentario.
-
IA en manos de ciberdelincuentes - ataques de correo electrónico La inteligencia artificial (IA) ha avanzado mucho, y una de sus aplicaciones, como ChatGPT de OpenAI, ha creado una nueva forma de ataques de correo electrónico empresarial (BEC). ChatGPT es un sofisticado modelo de IA que genera texto similar al humano según la información que recibe. Los ciberdelincuentes pueden usar esta tecnología para crear correos electrónicos falsos altamente convincentes y personalizados para cada destinatario, lo que aumenta las posibilidades de éxito en el ataque de phishing. Los ciberdelincuentes están buscando maneras de “jailbreak” o romper la seguridad de interfaces como ChatGPT para generar resultados no deseados, como la divulgación de información confidencial o la ejecución de código dañino. Además, se ha observado que los ciberdelincuentes están creando sus propios módulos personalizados similares a ChatGPT, pero más fáciles de usar para actividades maliciosas. WormGPT es una de estas herramientas maliciosas, es un módulo de IA basado en el modelo GPTJ y diseñado específicamente para ataques BEC, el cual crea correos electrónicos persuasivos y astutos que podrían engañar a personas desprevenidas. Para más información dale clic este enlace: https://lnkd.in/dTkfQCPS ¿Cómo puede ayudar Check Point? Harmony Email & Collaboration detecta y bloquea los ataques de phishing más avanzados en comunicaciones entrantes, salientes e internas en tiempo real, antes de que lleguen a los usuarios. Aprovechando la inteligencia artificial y el aprendizaje automático, analizando más de 300 indicadores de phishing e ingesta de datos de ThreatCloud IA, el servicio actualizado dinámicamente basado en una innovadora red global de sensores de amenazas, reduce el phishing que llega a la bandeja de entrada en un 99.2%. Incluye la protección completa para Microsoft 365, Google Workspace y todas sus aplicaciones de intercambio de archivos y colaboración: • Bloquea los ataques avanzados de phishing, malware y ransomware antes de que ingresen a la bandeja de entrada • Protege los datos empresariales confidenciales (DLP) para que no salgan de la organización • Previene el robo de cuentas y mantiene a los usuarios seguros • Protege todas las líneas de comunicaciones comerciales, incluidas Slack y Teams • La primera solución en implementar API, aprendizaje automático e IA para la seguridad del correo electrónico. ¿Te animas a probarlo? ¡Contáctanos a mrepetto@nirien.com o al +507 6674-8586 y nosotros te ayudáremos! #ZeroTrust #Ransomware #BEC #datasecurity #dataloss #dataleaks #dataprotection #cybersecurity #cybersecurityawareness #cybersecurityculture #phishing #AtaqueDePhishing #AtaqueCibernético #ConcienciaciónDelEmpleado #ConcienciaciónDeCiberseguridad #hacker #cibercriminales #malware #troyano #Checkpoint #Harmony #Nirien https://lnkd.in/erEmgHpS
NIRIEN, S.A. on Instagram: "IA en manos de ciberdelincuentes - ataques de correo electrónico La inteligencia artificial (IA) ha avanzado mucho, y una de sus aplicaciones, como ChatGPT de OpenAI, ha creado una nueva forma de ataques de correo electrónico empresarial (BEC). ChatGPT es un sofisticado modelo de IA que genera texto similar al humano según la información que recibe. Los ciberdelincuente
instagram.com
Inicia sesión para ver o añadir un comentario.
-
Hoy en día se está experimentando un gran avance en la Inteligencia Artificial (IA). Los sistemas o programas informáticos dotados de IA han sido diseñados para imitar y replicar algunas capacidades cognitivas humanas, como el aprendizaje, la percepción, el razonamiento y la toma de decisiones. Existen diversas herramientas que actualmente las personas utilizan a diario como, por ejemplo, Alexa, chatbots de atención al cliente, el Asistente de Google o Siri. Estas herramientas recogen y almacenan una gran cantidad de información personal. Esto puede ser beneficioso para agilizar el funcionamiento de las mismas, pero también puede conllevar algunos riesgos de seguridad y jugar en contra de los usuarios. ¿Qué tipos de ciberataques se realizan? Los ciberdelincuentes son conscientes de que la IA es muy útil para perpetrar sus ataques. A continuación, te mostramos algunos vectores de ataque que pueden ser empleados con Inteligencia Artificial: Phishing o Spear-Phishing. Con la ayuda de la IA, los ciberdelincuentes suplantan la identidad de empresas en correos electrónicos muy persuasivos, animando al usuario a facilitar información personal, a clicar en enlaces o a descargar archivos adjuntos que pueden contener software malicioso. Los ciberdelincuentes, con la ayuda de la IA, pueden imitar la redacción de correos electrónicos suplantando a otras personas de la misma empresa o simular una página web de un servicio y que parezca el original. Suplantación de identidad. También pueden hacerse pasar por otra persona o compañía a través de otros canales, como WhatsApp, mensajes SMS y llamadas telefónicas, utilizando herramientas de clonación de voz en el último caso. ¿Qué medidas debes tomar? Revisa siempre el remitente de los mensajes antes de contestar o clicar en los enlaces de un correo. Recuerda que algunas herramientas de IA pueden escribir igual o de manera similar a personas o empresas. Por regla general, no proporciones datos sensibles o confidenciales en la página web a la que te intenta redirigir un enlace incluido en un SMS o email. Tampoco descargues aplicaciones a través de estos canales; recuerda hacerlo siempre desde los mercados oficiales. No compartas las contraseñas, ya que son únicas e intransferibles, y no las introduzcas en herramientas de Inteligencia Artificial. Crea una cultura de ciberseguridad, sé consciente de los riesgos que puede ocasionar un mal uso de las IAs y transmite esos conocimientos a tu entorno más cercano y profesional. Queda usted debidamente avisado. Atte: Scarfone Julian.
Inicia sesión para ver o añadir un comentario.
-
🚨 3 Vulnerabilidades Críticas de los Chatbots de IA que Debes Conocer Los chatbots impulsados por IA están transformando la forma en que interactuamos, pero también traen consigo nuevos riesgos de seguridad. Aquí te compartimos las tres vulnerabilidades más preocupantes: > Ataques de Inyección: Los cibercriminales pueden aprovechar fallos en las entradas de los chatbots para ejecutar código malicioso. ¡Cuidado con lo que introduces! > Almacenamiento Inseguro de Datos: Si los datos sensibles no se gestionan adecuadamente, pueden ser robados o usados con fines maliciosos. La seguridad es clave. > Controles de Acceso Inadecuados: Un acceso no autorizado puede resultar en el robo de datos o en un control no deseado de las interacciones. Protege tus herramientas. 🔒 ¿Cómo protegerte? 1. Realiza pruebas de penetración (pentesting) para detectar y solucionar vulnerabilidades. 2. Implementa medidas de seguridad robustas para salvaguardar la información confidencial. 3. Establece controles de acceso estrictos para asegurar que solo las personas autorizadas tengan acceso. No dejes la seguridad al azar ➡ https://lnkd.in/dyrYamub #Ciberseguridad #Chatbots #IA #Onecyber
Inicia sesión para ver o añadir un comentario.
-
🚨 ¿Sabías que los hackers pueden usar a los chatbots para robar tu información personal? Un equipo de expertos en seguridad ha desarrollado un nuevo ataque, denominado “Imprompter”, que convierte instrucciones maliciosas en comandos ocultos capaces de extraer datos sensibles que compartes con asistentes de inteligencia artificial (IA). Esto incluye desde nombres y direcciones hasta datos de tarjetas de crédito y credenciales de acceso. ¿Cómo funciona este ataque? Los investigadores de la Universidad de California en San Diego y la Universidad Tecnológica de Nanyang descubrieron que es posible diseñar mensajes que engañan a los modelos de lenguaje (LLMs). Estos comandos ofuscados parecen inofensivos, pero le ordenan al chatbot recopilar información del usuario y enviarla a un servidor controlado por los atacantes. Lo más preocupante: los usuarios no se dan cuenta de que su información está siendo robada, ya que el chatbot responde con un simple píxel transparente en lugar de levantar sospechas. ¿Qué podemos aprender de esto? Desde el lanzamiento de ChatGPT en 2022, las vulnerabilidades en los sistemas de IA han generado preocupación. Aunque algunas empresas, como Mistral AI, han tomado medidas para corregir fallos, los expertos advierten que estos ataques no solo son efectivos, sino también cada vez más sofisticados. 🛡 Consejo clave: Ten cuidado con la información personal que compartes con cualquier herramienta de IA. Recuerda que incluso detalles aparentemente inofensivos pueden ser utilizados en tu contra. ¿Por qué deberías compartir esto? La seguridad digital nos afecta a todos. Informar a otros sobre estas amenazas puede ayudarnos a ser más conscientes y proteger nuestros datos en un mundo donde la tecnología avanza más rápido que las medidas de protección. #CIO #CISO #AI https://lnkd.in/ggzgmDSk
Los hackers usan este truco para obtener los datos personales que compartes con chatbots
es.wired.com
Inicia sesión para ver o añadir un comentario.
-
Noticias #Fersoft #Ciberseguridad #España La investigación conjunta de OpenAI y Microsoft revela que los hackers están utilizando modelos de lenguaje grandes (LLM), como ChatGPT, para llevar a cabo ataques más sofisticados. La adopción de inteligencia artificial ha contribuido al aumento en escala y complejidad de los ataques cibernéticos en el último año. Grupos respaldados por países como Corea del Norte, Rusia, Irán y China han empleado herramientas como ChatGPT para realizar tácticas de ciberdelincuencia avanzada, incluyendo la investigación de objetivos potenciales y el desarrollo de ingeniería social. Aunque no se han observado técnicas de ataques particularmente novedosas, la inteligencia artificial facilita la tarea de estos grupos al permitir acciones como el reconocimiento de industrias y ubicaciones de víctimas potenciales, la codificación y desarrollo de malware, y la asistencia en el aprendizaje y uso de lenguas nativas. La investigación destaca la importancia de que los defensores refuercen los controles de seguridad y implementen un monitoreo sofisticado para anticipar y bloquear actividades maliciosas. Además, advierte sobre posibles evoluciones en el uso de LLM, como la suplantación de identidad mediante voz, y destaca la necesidad de medidas para cerrar cuentas y activos asociados con estos grupos, así como mejorar la protección de la tecnología LLM. ¿Necesitas ayuda para implementar #Ciberseguridad en tu organización? Hablemos. - Más info: https://lnkd.in/exbssyWU | info@ciberseguridad365.es
Inicia sesión para ver o añadir un comentario.
-
#10X #AI #powered #Cyberthreats “Donde no hay dudas de que la inteligencia artificial generativa potencia la productividad y el retorno de la inversión es en el cibercrimen. Los ataques se han multiplicado por 10 en dos años y en 2023 representaron una industria de 8 billones de dólares (el tercer PIB del mundo)” 😩 “…no hay confianza sin seguridad en un contexto donde los datos son oro y, por lo tanto, los agresores intentan contaminarlos y “envenenar” los modelos de lenguaje de la IA generativa” “El número de ataques de contraseñas es de 4000 incidentes por segundo. 🚨 💥 Hace dos años teníamos 567 ataques por segundo. Año tras año, hemos visto un aumento de diez veces en los ataques de identidad, de 3000 millones a 30.000 millones.” OpenAI reveals how cybercriminals are asking ChatGPT to write malware OpenAI's latest report reveals how cybercriminals are exploiting ChatGPT to write malware and conduct cyber-attacks, raising concerns over AI misuse 👉🏼 https://lnkd.in/dcdnEDiN OpenAI latest report on AI-powered cyber crimes 👉🏼 https://lnkd.in/dmuBdMqS https://lnkd.in/dpcmhZz5
Vasu Jakkal: “Es el escenario más amenazante de la historia”
lanacion.com.ar
Inicia sesión para ver o añadir un comentario.
-
Pueden utilizar IA para analizar grandes volúmenes de datos y crear correos de phishing altamente convincentes. O desarrollar deepfakes de voz o video, lo que puede engañar incluso a usuarios experimentados. La IA también puede automatizar y escalar ataques, haciéndolos más eficientes y difíciles de detectar. #IA / #Ciberseguridad
La inteligencia artificial es una vitamina para los ciberdelincuentes, pero también para la seguridad
hipertextual.com
Inicia sesión para ver o añadir un comentario.
-
🤔 ¿Sabías que la #InteligenciaArtificial también tiene su lado oscuro? En nuestro último post del blog exploramos los ataques a la privacidad que están generando preocupaciones entre usuarios, reguladores y empresas. Desde fugas de información sensible hasta robos de contexto, hacemos un análisis de las amenazas que acechan nuestros datos en el mundo de la #IA. 🤖 🔗 Leelo aquí: https://lnkd.in/dBA56jPN
Ataques a la Inteligencia Artificial (IV): Privacy Attacks
telefonicatech.com
Inicia sesión para ver o añadir un comentario.
674 seguidores