La reciente entrada en vigor de la Ley de Inteligencia Artificial (IA) trae consigo importantes cambios para las empresas que desarrollan y utilizan sistemas de IA. Entre las novedades más relevantes, encontramos la exigencia de un mayor control en el desarrollo de estos sistemas, con especial atención a la protección de datos personales. En este contexto, la Agencia Española de Protección de Datos (AEPD) ha destacado la importancia de la nueva ley para garantizar el cumplimiento del RGPD en el ámbito de la IA. La ley establece una serie de obligaciones para los proveedores de sistemas de IA, como: - Garantizar la transparencia y la explicabilidad de los sistemas de IA. - Implementar medidas para evitar sesgos y discriminación en los sistemas de IA. - Velar por la seguridad y la robustez de los sistemas de IA. - Realizar evaluaciones de impacto en la protección de datos. ¿Necesitas apoyo en este ámbito? ¡No te preocupes y déjalo en manos de nuestros expertos! Escríbenos y agendemos una llamada TOTALMENTE GRATIS.
Publicación de Agencia RGPD / LOPD
Más publicaciones relevantes
-
🤖 La nueva Ley de IA en la UE ha entrado en vigor. ¿Estás preparado para los cambios? La Ley de Inteligencia Artificial (IA) de la Unión Europea, en vigor desde el 1 de agosto de 2024, establece el primer marco jurídico global para regular el uso de esta tecnología, buscando equilibrar su desarrollo con la mitigación de riesgos para la salud, la seguridad y los derechos fundamentales. La normativa clasifica los sistemas de IA en cuatro categorías de riesgo (inaceptable, alto, limitado y mínimo), prohibiendo ciertos usos como la manipulación psicológica o la explotación de vulnerabilidades. También impone obligaciones de transparencia, como informar a los usuarios cuando interactúan con IA. Las sanciones por incumplimiento varían según la gravedad, con multas que pueden alcanzar los 35 millones de euros o el 7% del volumen global de negocios. Bajo este escenario, las empresas enfrentan varios desafíos con la implementación de esta ley, especialmente en áreas como la atención al cliente, el impacto fiscal y las implicaciones laborales. ¿Crees que tu empresa está preparada para cumplir con los requisitos de esta nueva regulación sobre inteligencia artificial? Lee la noticia completa aquí 👉 https://lnkd.in/dhwysgu6
Inicia sesión para ver o añadir un comentario.
-
#CírculoTeLoCuenta 🤔 | Pregunta: ¿Crees que afecta la irrupción de la IA en las empresas a las políticas de Compliance? La protección de datos es uno de los grandes desafíos de la Inteligencia Artificial, ya que impone estrictas restricciones acerca de cómo las organizaciones pueden procesar y almacenar la información. Desde luego, es un punto muy importante a tener en cuenta y la IA va a tener un papel muy relevante en esta área, pero también en otras muchas, se avecinan importantes oportunidades para las empresas tecnológicas. Información completa 🔗 https://lnkd.in/e7ReZDSj 📰 Noticia escrita por Diego Fernandez, de GELLIFY Iberia, y publicada en elEconomista. #CírculoLegal #IA #Compliance #CumplimientoNormativo #ProtecciónDeDatos #HerramientasIA
La irrupción de la IA en las empresas y cómo afecta a las políticas compliance
eleconomista.es
Inicia sesión para ver o añadir un comentario.
-
¿Estás listo para adoptar la Inteligencia Artificial (IA) en tu empresa, pero te preocupa la gestión de riesgos y cumplimiento? Buenas noticias: ¡no estás solo! Con la reciente regulación de la IA, se abordan los riesgos asociados con estas tecnologías, como la discriminación, el sesgo del algoritmo y la falta de privacidad. Ahora, es fundamental que las empresas que implementen sistemas de IA realicen evaluaciones de riesgos y tomen medidas para reducir los impactos negativos. Esto significa que: ✔️ La gestión de riesgos se vuelve más consciente. ✔️ Se fomenta la integración de prácticas de cumplimiento en los sistemas de gestión empresariales. La regulación de la IA no solo promueve un uso más seguro y ético de estas tecnologías, sino que también ayuda a las empresas a alcanzar un mayor nivel de transparencia y a ganar la confianza de los clientes. ¿Cómo crees que estas exigencias cambiarán el panorama de la IA en tu industria? -- #Digitalización #HSE #ManagementSystem #RiskManagement #Safety #Environment
Inicia sesión para ver o añadir un comentario.
-
El profesional de la privacidad, imprescindible en la era de la inteligencia artificial. ➡️ Su experiencia y dedicación no solo aseguran el cumplimiento normativo, sino que también orientan a las empresas hacia prácticas éticas. #ProtecciónDeDatos #IA
El profesional de la privacidad, imprescindible en la era de la inteligencia artificial
cincodias.elpais.com
Inicia sesión para ver o añadir un comentario.
-
Puntos claves para tener a la mano sobre la Circular Externa No. 002 de 2024 de la SIC sobre inteligencia artificial. Esperemos que este sea el primero de muchos espacios que nos permitan discutir puntos en común sobre el desarrollo y uso de la inteligencia artificial.
Tres puntos clave sobre la Circular Externa No. 002 de 2024 de la Superintendencia de Industria y Comercio sobre Sistemas de Inteligencia Artificial: 🔐 Privacidad por diseño y por defecto. La adopción del estándar "Privacy by Design and by Default" manda un mensaje claro: quien implemente un Sistema de IA debe internalizar el costo de la protección de datos desde su diseño. ⚠ La palabra clave es "documentar". No basta con realizar un análisis del posible impacto del Sistema de IA sobre los datos personales. La SIC utiliza la palabra "documentar" precisamente para dejar claro que el estudio de impacto debe ser un esfuerzo específico y demostrable. 📊 Tratamiento y uso de datos públicamente disponibles. La SIC reitera una posición sostenida ya en varias decisiones recientes: los datos públicamente accesibles, como aquéllos disponibles en Internet, no son datos públicos que no requieran consentimiento para su tratamiento. Aunque la línea es muy delgada y la zona gris bastante amplia, los Sistemas de IA que se nutren de información públicamente accesible deben ser diseñados con esta restricción en mente. Será muy interesante ver el desarrollo y la aplicación de estos preceptos en la práctica. Los invito a leer un resumen más detallado de los puntos clave. #InteligenciaArtificial #ProtecciónDeDatos
Inicia sesión para ver o añadir un comentario.
-
Tres puntos clave sobre la Circular Externa No. 002 de 2024 de la Superintendencia de Industria y Comercio sobre Sistemas de Inteligencia Artificial: 🔐 Privacidad por diseño y por defecto. La adopción del estándar "Privacy by Design and by Default" manda un mensaje claro: quien implemente un Sistema de IA debe internalizar el costo de la protección de datos desde su diseño. ⚠ La palabra clave es "documentar". No basta con realizar un análisis del posible impacto del Sistema de IA sobre los datos personales. La SIC utiliza la palabra "documentar" precisamente para dejar claro que el estudio de impacto debe ser un esfuerzo específico y demostrable. 📊 Tratamiento y uso de datos públicamente disponibles. La SIC reitera una posición sostenida ya en varias decisiones recientes: los datos públicamente accesibles, como aquéllos disponibles en Internet, no son datos públicos que no requieran consentimiento para su tratamiento. Aunque la línea es muy delgada y la zona gris bastante amplia, los Sistemas de IA que se nutren de información públicamente accesible deben ser diseñados con esta restricción en mente. Será muy interesante ver el desarrollo y la aplicación de estos preceptos en la práctica. Los invito a leer un resumen más detallado de los puntos clave. #InteligenciaArtificial #ProtecciónDeDatos
Inicia sesión para ver o añadir un comentario.
-
El Parlamento Europeo ha ratificado la primera legislación sobre Inteligencia Artificial (IA). Esta ley busca sentar las bases para la creación de un entorno favorable para el desarrollo de la innovación en un ambiente seguro, poniendo foco en la seguridad, transparencia y responsabilidad en la utilización de esta tecnología. Para materializar estos objetivos, establece obligaciones basadas en la evaluación de los "riesgos potenciales" y los "niveles de impacto" de la IA. En esta línea, realiza una clasificación de cuatro niveles, dependiendo del grado de riesgo que representen: (i) Riesgo inaceptable: Sistemas de IA que se consideran una amenaza para las personas y están prohibidos (por ejemplo, manipulación cognitiva del comportamiento de personas). (ii) Riesgo alto: Sistemas que, por su función, tengan un efecto perjudicial para la salud, la seguridad y los derechos fundamentales de las personas (por ejemplo, identificación o categorización biométrica). Estos sistemas no se prohíben, pero deberán ser evaluados de forma previa, además de preverse un monitoreo posterior. (iii) Riesgo limitado: Sistemas que interactúan con seres humanos, a los cuales se les impone una obligación de transparencia en el uso de IA (por ejemplo, grandes modelos de lenguaje). (iv) Riesgo bajo o mínimo: Sistemas permitidos que no queden comprendidos en las restantes clasificaciones (por ejemplo, videojuegos que utilicen IA). La ley establece, además, obligaciones de transparencia para los sistemas de IA generativa, los cuales deben especificar si han generado un texto, canción o fotografía utilizando IA, y garantizar los derechos de autor en los datos empleados para entrenar dichos sistemas. En el mismo sentido, se declara ilegal el uso de deepfake, técnica de edición de imágenes, audios y/o videos falsos de personas, lugares o sucesos que aparentan ser reales sin aclarar que han sido generados por IA, y se prohíbe a empresas establecer chatbots sin revelar que no hay una persona real detrás. Esta nueva legislación y los principios allí expresados resultan un antecedente relevante y, con seguridad, servirá de inspiración en otras jurisdicciones. No obstante, la discusión y la experiencia es todavía incipiente, por lo que sería deseable ser prudentes en su incorporación y adecuación a los países de nuestra región. #InteligenciaArtificial #Legislación #UniónEuropea #Sistemas #InteligenciaArtificiaGenerativa #IAG #IA Martín Pesce Cutri - Montserrat Puente - Florencia Fitipaldo - Natalia Villarroel Paniagua - Joaquín Avedisian
Inicia sesión para ver o añadir un comentario.
-
¿Alguna vez te has preguntado sobre los desafíos éticos que enfrenta la IA? 🧐 Desde la toma de decisiones autónomas hasta la privacidad de los datos. Sin duda, este es un tema que preocupa a muchos. #ÉticaenIA #InteligenciaArtificial #ValoresHumanos #ResponsabilidadDigital
Inicia sesión para ver o añadir un comentario.
-
🚀 La IA y la Protección de Datos: ¿Cómo regula la AEPD su uso? La inteligencia artificial ha revolucionado el procesamiento de datos, pero también plantea importantes desafíos en materia de protección de datos personales. La Agencia Española de Protección de Datos (AEPD) juega un papel clave regulando el uso ético y legal de esta tecnología, que está cada vez más presente en sectores como la sanidad o el comercio. Algunos aspectos clave que destaca la AEPD incluyen: ➡️ La transparencia en el uso de IA. ➡️ La importancia de explicar las decisiones automatizadas. ➡️ La realización de Evaluaciones de Impacto cuando existen riesgos elevados para los derechos de las personas. 📌 Si te interesa conocer más sobre cómo la AEPD está guiando a las empresas en el uso responsable de la IA, ¡te invitamos a leer el artículo completo en nuestro blog! #GrupoAdaptalia #ExpertosEnSimplificarLoComplejo #InteligenciaArtificial #ProtecciónDeDatos #AEPD
AEPD Inteligencia Artifical | Grupo Adaptalia
https://grupoadaptalia.es
Inicia sesión para ver o añadir un comentario.
-
Mi unica duda es como proteger juridicamente los productos generados a traves de la inteligencia artificial.
¿Europa siempre marca el camino? Al igual lo hizo en materia de protección de datos personales con el Reglamento General de Protección de Datos o mejor conocido como RGPD, es pionera en regular la Inteligencia Artificial y sentar las bases para el resto del mundo. Su objetivo es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector. El reglamento establece obligaciones para la IA en función de sus riesgos potenciales y nivel de impacto. ¿Era necesaria la regulación? ¿Qué situaciones requerian una reglamentación urgente de la IA? 📣 Me cuentan en comentarios... #AInews #AI #
La Unión Europea ya tiene ‘Ley de Inteligencia Artificial’: ¿Qué prohíbe? ¿Qué regula? • ENTER.CO
https://www.enter.co
Inicia sesión para ver o añadir un comentario.
88 seguidores
Desarrollo web | JS | PHP | Wordpress
9 mesesEs fundamental que los sistemas de IA sean transparentes y explicables, y que se eviten sesgos y discriminación. ⚠