Aprendé a protegerte del fraude identificando las pistas en estos deepfakes simulados versión navideña 🌲 🎅 #AccentureInnovation [Descripción del video: Un carousel con ocho imágenes. La primera imagen muestra un duende y dice: "No dejes que los deepfakes arruinen el espíritu de la temporada. ¿Podés detectarlos?". La segunda imagen muestra un reno con un asta más corta que la otra y dice: "Detectá la pista del deepfake". La tercera imagen dice: "Respuesta: Los deepfakes pueden tener partes del cuerpo que faltan o están desalineadas, como el asta del reno". La cuarta imagen muestra un muñeco de nieve al que le falta una patilla de las gafas y dice: "Detectá la pista del deepfake". La quinta imagen dice: "Respuesta: Las imágenes generadas por IA a veces pueden omitir partes de la imagen, como una parte de las gafas". La sexta imagen muestra un muñeco de jengibre con una sonrisa parcialmente borrosa y dice: "Detectá la pista del deepfake". La séptima imagen dice: "Respuesta: Al usar IA en rostros, las imágenes a veces pueden perder detalles, como la sonrisa de este muñeco de jengibre". La octava imagen dice: "¿Cómo te fue? ¡Compartí tus resultados y consejos en los comentarios abajo!"]
Publicación de Accenture Argentina
Más publicaciones relevantes
-
Aprende a protegerte del fraude identificando las pistas en estos deepfakes simulados. 🤶🎄 #AccentureInnovation [Descripción del video: Un carousel con ocho imágenes. La primera imagen muestra un duende y dice: "No dejes que los deepfakes arruinen el espíritu de la temporada. ¿Puedes detectarlos?". La segunda imagen muestra un reno con un asta más corta que la otra y dice: "Detecta la pista del deepfake". La tercera imagen dice: "Respuesta: Los deepfakes pueden tener partes del cuerpo que faltan o están desalineadas, como el cuerno del reno". La cuarta imagen muestra un muñeco de nieve al que le falta una patilla de los lentes y dice: "Detecta la pista del deepfake". La quinta imagen dice: "Respuesta: Las imágenes generadas por IA a veces pueden omitir partes de la imagen, como una parte de los lentes". La sexta imagen muestra un muñeco de jengibre con una sonrisa parcialmente borrosa y dice: "Detecta la pista del deepfake". La séptima imagen dice: "Respuesta: Al usar IA en rostros, las imágenes a veces pueden perder detalles, como la sonrisa de este muñeco de jengibre". La octava imagen dice: "¿Cómo te fue? ¡Comparte tus resultados y consejos en los comentarios abajo!"]
Inicia sesión para ver o añadir un comentario.
-
🟣 Así es el programa 'Minerva' de Mossos que revolucionará la búsqueda de desaparecidos. El programa, que utiliza la IA, también permite hacer retratos robots hiperrealistas en cuestión de minutos y comparar las imágenes generadas con las fotografías de la base de datos policial. Los Mossos d’Esquadra han aprovechado el mayor evento de seguridad de Barcelona, el Security Forum 2024, para presentar un programa que, utilizando la inteligencia artificial (IA), revolucionará la búsqueda de personas desparecidas y la realización de retratos robots de sospechosos. El programa, por ahora disponible en tres idiomas (catalán, español e inglés), ha sido desarrollado en colaboración con la Universitat Politécnica de Cataluña y se espera que esté operativo en las comisarías catalanas en un plazo máximo de dos años. La primera función que ofrece este programa, bautizado como Minerva Imagina, servirá para localizar a personas que llevan años desaparecidas. Utilizando la IA y las fotos aportadas por los familiares, este revolucionario programa es capaz de simular el aspecto que tendría la persona desaparecida en la actualidad en diferentes situaciones cotidianas, de forma que las imágenes se podrán difundir en redes sociales para continuar con la búsqueda. Ahora, el programa permite que sea la propia víctima quien, a viva voz, indique los rasgos de la persona a la que ha visto cometer un delito grave. El programa posibilita que el testigo vaya perfilando las características faciales y le ofrece varias imágenes creadas mediante IA cada vez que se realiza una modificación. Además, también se nutre de bancos de imágenes de internet, por lo que si la víctima refiere que el sospechoso tenía un cierto parecido a un personaje público, por ejemplo, aplicará estos rasgos al retrato robot. Esta opción también permite que los agentes de la DIC introduzcan un boceto muy simple, sin la necesidad de destinar tanto tiempo a esta tarea, que el programa tomará como base para generar una imagen hiperrealista. Una vez terminado el retrato, el programa es capaz de cotejarlo con las imágenes almacenadas en las bases de datos policiales de personas que cuentan con antecedentes penales.
Inicia sesión para ver o añadir un comentario.
-
😠 ¿Sabes qué es el Shallowfake? ¿Y cómo luchar contra él? 😠 La IA tiene cosas muy buenas... y otras no tanto. Entre estas últimas, el #Shallowfake. Ya sabes, exagerar o incluso inventar daños en fotos y videos para reclamar una indemnización. En definitiva, un #fraude. ☝ Normalmente, estas fotos y videos se suben a aplicaciones de notificaciones de siniestros. En algunos casos, las detectamos. En otras, se hace sumamente difícil. Afortunadamente, ya disponemos de herramientas, también basadas en la IA, que mediante el análisis de fotografías y videos, indican si han podido ser modificados. ¿Cómo poner coto a este fraude? Utilizando las aplicaciones correctas. Aplicaciones que: 🥇 Garanticen la conexión 🥇 Fijen la geolocalización 🥇 Que sean interactivas entre perito y asegurado ⇨ De las herramientas existentes, se debe confiar en las que se basan en la conexión directa entre el equipo del perito y la cámara del teléfono que da soporte. Pero la fiabilidad vendrá dada por la interacción en directo. El perito, durante la conexión, tiene capacidad para realizar pruebas. Puede solicitar que se enfoque el daño desde otro ángulo o a otros elementos no relacionados, o bien desde distintas distancias… ⇨ Los gestos, los cambios de ángulo o la distinta incidencia de la luz, son cambios en el enfoque que requieren de un procesamiento y que, por tanto, nos permitirían ver esos engaños. Si se trata de un elemento que aplica un filtro de algún tipo, lo aplicará sobre cualquier imagen, por lo que visualizar otras imágenes haría aplicar ese filtro en elementos en los que no tendría sentido. Es decir, la participación humana. ¿Te has encontrado en alguna ocasión con este fraude? ¿Cómo lo has podido detectar? #Seguros #Siniestros
Inicia sesión para ver o añadir un comentario.
-
Una pregunta. Clave para evitar una estafa por IA en Ferrari Así comenzaba esta noticia. Te la resumo: Un estafador utilizó entre otros métodos, una herramienta de deepfake basada en la IA. Para que me entiendas, el deep fake es una técnica en la que se utiliza la inteligencia artificial para crear videos, audio o imágenes falsas muy realistas, de personas que parecen reales, pero no lo son. En este caso la utilizó para imitar la voz del CEO de Ferrari, intentando persuadir a un alto ejecutivo de la marca para que realizara una transferencia urgente y de forma secreta, con la excusa de mantener la discreción en una operación estratégica. Al ejecutivo le parecía todo extraño, pero la voz era la de su CEO. Por lo que le preguntó: ¿Cuál es el título del libro, que me recomendaste hace unos días? A lo que el atacante no supo responder, y entonces se dieron cuenta del intento de estafa. Una pregunta sencilla y familiar, pero que solo el auténtico CEO sabría. Este incidente es un recordatorio de que la seguridad en la era digital no se trata solo de proteger sistemas, sino también de concienciar y formar a los trabajadores en materia de ciberseguridad. La primera barrera es la concienciación y no un antivirus #Ciberseguridad #Deepfake #Tecnología #Ferrari
Inicia sesión para ver o añadir un comentario.
-
💡 Innovador Sistema CamPro: Protección Contra el Reconocimiento Facial para Salvaguardar la Privacidad El reconocimiento facial plantea serios riesgos para la privacidad, como demuestran recientes incidentes de fraude utilizando deepfakes. La proliferación de cámaras de vigilancia aumenta estos riesgos, incluso en países como EEUU, China, Reino Unido y España. Aunque el Reglamento de Inteligencia Artificial de la Unión Europea prohíbe el reconocimiento facial masivo salvo por razones de seguridad nacional, las imágenes capturadas pueden ser usadas maliciosamente para identificar personas sin su consentimiento. Un grupo de investigadores de la Universidad de Zhejiang ha desarrollado CamPro, un sistema para prevenir el reconocimiento facial manipulando la captura de imágenes en tiempo real. CamPro modifica parámetros del procesador de señal de las imágenes (ISP) para proteger la privacidad sin afectar otras aplicaciones útiles de las cámaras. Esta tecnología reduce la precisión de los sistemas de identificación facial a un 0,3% y es resistente a ciberataques. Los investigadores están trabajando en mejorar su rendimiento y compatibilidad para su implementación en el mercado, lo que representa un avance significativo en la protección de la privacidad. 🔗 Conoce más en este artículo: https://lnkd.in/eix_xGwN
El invento que protege tu privacidad: evita que tu cara aparezca en sistemas de reconocimiento facial
elespanol.com
Inicia sesión para ver o añadir un comentario.
-
🔒✨ ¡Descubre Image Anonymization API en Toolsnocode! Esta herramienta de alta precisión borra rostros y placas de vehículos en imágenes en tiempo real, protegiendo la privacidad y cumpliendo con normativas. ¡Anonimiza tus fotos en segundos de forma segura! 📸🔒 #Privacidad #Seguridad #Anonimización.. https://lnkd.in/dBxs3i8E
Inicia sesión para ver o añadir un comentario.
-
BUSCADORES!!!! Todos los Martes 8pm y Miércoles a las 8pm por Radio Ritmo Latino El Señor Oronia Revive todos los capítulos búscalos en Debajo DEL iceberg Canal de Youtube!!! https://lnkd.in/deza8bMh Los escáneres corporales de la TSA (Administración de Seguridad en el Transporte, por sus siglas en inglés) son dispositivos utilizados en aeropuertos para inspeccionar a los pasajeros en busca de objetos peligrosos o prohibidos debajo de la ropa sin necesidad de contacto físico. Estos escáneres han sido objeto de debate en relación con la privacidad y los derechos civiles. Aquí tienes una explicación general y cinco puntos clave relacionados con los escáneres corporales de la TSA en el contexto del "Despertar": Explicación del tema "TSA Body Scanners" con respecto al Despertar: 1. Seguridad en el Transporte Aéreo: Los escáneres corporales de la TSA se implementaron como una medida de seguridad para detectar objetos no autorizados, como armas u otros dispositivos peligrosos, que los métodos de inspección tradicionales podrían pasar por alto. 2. Preocupaciones sobre la Privacidad: Algunas personas han expresado preocupaciones sobre la invasión de la privacidad debido a la capacidad de los escáneres corporales para mostrar imágenes detalladas del cuerpo, incluyendo características anatómicas. 3. Debates sobre la Efectividad: Ha habido debates sobre la efectividad de los escáneres corporales, con algunos argumentando que la tecnología no es infalible y que puede haber formas de evadir la detección. 4. Desconfianza en Instituciones de Seguridad: En el contexto del "Despertar", algunas personas han relacionado la implementación de los escáneres corporales con la desconfianza generalizada en las instituciones gubernamentales y de seguridad. 5. Movimientos en Defensa de la Privacidad: Existen movimientos y organizaciones que abogan por la privacidad y los derechos civiles, cuestionando la necesidad y la efectividad de los escáneres corporales y buscando medidas alternativas que equilibren la seguridad y el respeto a la privacidad. Es importante destacar que los escáneres corporales de la TSA han sido objeto de regulaciones y modificaciones para abordar preocupaciones sobre la privacidad. Además, las opiniones sobre la necesidad y eficacia de estos dispositivos pueden variar.
Inicia sesión para ver o añadir un comentario.
-
Lo he comentado muchas veces: a medida que la IA Generativa avanza crecen las amenazas. Los delincuentes aprovechan la misma IA para suplantar la identidad en tiempo real, sustraer información y vulnerar los motores biométricos, como los llamados ataques de inyección, que buscan inyectar imágenes o videos falsos con el fin de vulnera un sistema de seguridad en servicios donde se trata información sensible. Frente a esto, la tarea de las compañías de Biometría Facial, es entregar a los usuarios un sistema de identificación de vanguardia que sea capaz de analizar, reconocer dicha tecnología, reflejos de luz, colocar una secuencia de imágenes aleatorias en tiempo real que capte al usuario con el mismo patrón de colores, entre otros detalles, para determinar la veracidad de un rostro, al mismo tiempo analizar la antigüedad del correo electrónico, número de celular, etc. Hoy en día el servicio al cliente pasa por la seguridad que entregas en tus procesos operativos. Si aún no incorporas el sistemas de biometría facial en tus sistemas, me puedes escribir con total confianza😉. #biometriafacial #Azurianbio #Azurian #Perú
Inicia sesión para ver o añadir un comentario.
-
🚨 Intento de estafa con deepfake en Ferrari 🚨 La Inteligencia Artificial puede ser una poderosa herramienta, pero también un riesgo cuando se usa con malas intenciones. Recientemente, Ferrari enfrentó un intento de fraude donde se utilizó una IA para clonar la voz de su CEO, Benedetto Vigna. Los estafadores intentaron engañar a un directivo de la compañía, haciéndose pasar por el CEO en una llamada que casi resultó convincente. Afortunadamente, el directivo detectó inconsistencias y formuló una pregunta clave que solo el verdadero Vigna podría responder, desmantelando así el fraude. Este incidente subraya la importancia de estar alerta y capacitar a los empleados contra estas amenazas cada vez más sofisticadas. #IA #Ciberseguridad #Ferrari #Deepfake #Tecnología https://lnkd.in/d2vtHgdw
Un intento de estafa con deepfake usó la voz del CEO de Ferrari con malas intenciones. Así acabó la historia
motor.es
Inicia sesión para ver o añadir un comentario.
-
La prevención de pérdidas y robos es una preocupación constante para las empresas. La IA puede desempeñar un papel crucial en esta área al detectar la ausencia de objetos específicos en una zona determinada Para ello, hemos desarrollado nuestro algoritmo de Objeto Faltante que detecta cuando un objeto de valor es movido o retirado de su sitio preestablecido. Esto permite a las empresas prevenir pérdidas y robos al tomar medidas inmediatas cuando se detecta una falta de un objeto importante. Para más información... 🌎 www.iabox.com.ar 📱 +54 911 4191 1946 📩 info@iabox.com.ar #iabox #solucionesIA #security #protección #detección #objetofaltante #robos #inseguridad
Inicia sesión para ver o añadir un comentario.
518.599 seguidores