Políticas de gobernanza sobre el uso de grandes modelos de lenguaje  (LLMs) en  regulatory affairs

Políticas de gobernanza sobre el uso de grandes modelos de lenguaje (LLMs) en regulatory affairs

Por Miguel Angel Campanero


El uso de grandes modelos de lenguaje grande (LLMs), como GPT, en Regulatory Affairs está ganando popularidad debido a su capacidad para generar lenguaje natural, automatizar tareas complejas y mejorar la eficiencia. Sin embargo, estos avances también traen consigo desafíos en cuanto a seguridad, ética y gobernanza. En este artículo, exploraremos en profundidad cómo garantizar el uso seguro y responsable de LLMs en el ámbito regulatorio.

1. ¿Qué entendemos por LLMs?

Los Large Language Models (LLMs) son una categoría de inteligencia artificial generativa, entrenada en enormes cantidades de datos textuales, capaz de generar respuestas naturales a partir de un prompt o entrada. Estos modelos no solo comprenden el lenguaje, sino que también pueden realizar una variedad de tareas complejas como escribir, traducir y analizar datos.

Fases de entrenamiento de un LLM:

  1. Pre-entrenamiento: se utiliza un vasto conjunto de datos textuales para identificar y aprender las correlaciones estadísticas entre palabras y frases, transformándolas en representaciones numéricas llamadas "pesos".
  2. Ajuste fino: el modelo se somete a un proceso de aprendizaje supervisado con ejemplos etiquetados para optimizar sus capacidades en tareas específicas.

Es importante destacar que los usuarios suelen interactuar con LLMs a través de chatbots, pero estos no son lo mismo. Los chatbots pueden estar impulsados por LLMs, pero también utilizan otras tecnologías. Ejemplo: GPT-4 es un LLM, mientras que ChatGPT es un chatbot que lo usa para interactuar con usuarios.

2. Uso de grandes modelos de lenguaje

En el contexto regulatorio, los LLMs pueden aplicarse en varias áreas:

  • Asistencia en la redacción: actualmente los LLMs nos ayudan a redactar correos electrónicos, informes y contenido técnico, mejorando la eficiencia en la creación de documentos.
  • Análisis y minería de datos: estos modelos permiten procesar grandes cantidades de información, resumiendo artículos, reglamentos, guías de apoyo, o informes extensos de manera rápida y precisa.
  • Traducción de texto: los LLMs facilitan la traducción automática de textos complejos en diferentes idiomas, ayudando en la comunicación multilingüe.
  • Asistentes virtuales: los LLMs pueden integrarse en asistentes de IA que gestionan tareas como agendar reuniones o recordatorios.

Los LLMs se clasifican en modelos de código abierto (libre acceso) y modelos cerrados (productos comerciales). El tipo de interacción y acceso puede variar desde interfaces simples en línea hasta soluciones más complejas integradas en sistemas empresariales.

Tipos de interacción con LLMs:

  • Externamente alojados por terceros: el usuario interactúa con el modelo a través de una interfaz en línea.
  • Parte de soluciones empresariales: los LLMs pueden integrarse en sistemas amplios que incluyen gestión de datos y análisis.
  • Internamente alojados: los usuarios tienen control total sobre el entorno del LLM, lo que permite una personalización y seguridad avanzada.
  • Entrenamiento interno: la organización desarrolla o ajusta el LLM utilizando sus propios datos, lo que requiere una inversión significativa en recursos.

3. Uso seguro y responsable de LLMs

Si bien los LLMs ofrecen muchas ventajas, su uso debe gestionarse con precaución debido a posibles riesgos. Las "halucinaciones" son respuestas que, aunque plausibles, pueden ser incorrectas o irrelevantes, lo que puede afectar decisiones críticas en el ámbito regulatorio. Además, los LLMs procesan grandes cantidades de información, lo que puede comprometer la privacidad si los datos no se manejan adecuadamente.

Consideraciones clave para un uso seguro:

  • Diseño cuidadoso de prompts: es fundamental evitar que los prompts expongan información sensible, como datos personales o secretos comerciales.
  • Validación de respuestas: dado que los LLMs generan respuestas basadas en patrones estadísticos, es vital revisar las salidas para asegurarse de que sean precisas, coherentes y éticas.

4. Consideraciones éticas generales

El uso de grandes modelos de lenguaje (LLMs) por parte de los departamentos de regulatory affairs implica abordar una serie de consideraciones éticas para garantizar su implementación responsable y segura. Estas consideraciones no solo son fundamentales para proteger la integridad del proceso regulatorio, sino también para garantizar que las tecnologías de IA respeten los derechos humanos y mantengan altos estándares de equidad, justicia y transparencia.

Principios éticos clave en la IA

En 2018, el Grupo Europeo de Ética en Ciencia y Nuevas Tecnologías (EGE) publicó un conjunto de principios éticos aplicables a la IA, centrados en los valores fundamentales de la Unión Europea, incluidos en los Tratados de la UE y la Carta de los Derechos Fundamentales de la UE. Estos principios incluyen:

  • Dignidad humana: la IA debe respetar y promover el bienestar humano, evitando cualquier acción que degrade o perjudique la dignidad de las personas.
  • Autonomía: el control y la decisión final sobre cualquier acción deben recaer en los seres humanos, no en las máquinas.
  • Responsabilidad: las organizaciones que desarrollan y utilizan IA deben ser responsables de sus acciones y de los impactos de la tecnología.
  • Equidad y justicia: la IA no debe discriminar ni perpetuar desigualdades; debe tratar a todas las personas de manera justa.
  • Seguridad: es fundamental garantizar la seguridad física y mental de los usuarios y de aquellos afectados por la IA.
  • Protección de datos y privacidad: las tecnologías de IA deben cumplir estrictamente con las normativas de protección de datos, como el Reglamento General de Protección de Datos (GDPR), garantizando que la información personal esté protegida y no se utilice de manera indebida.

El Grupo de Expertos de Alto Nivel en Inteligencia Artificial (HLEG), establecido por la Comisión Europea, desarrolló las Directrices Éticas para una IA Fiable en 2019. Este marco establece cuatro principios éticos fundamentales que deben guiar el diseño y uso de los sistemas de IA, incluido el LLM:

  • Autonomía: la IA debe respetar la capacidad de las personas para tomar sus propias decisiones.
  • Prevención de daños: la IA debe evitar causar cualquier tipo de daño a las personas, tanto físico como mental.
  • Justicia: los sistemas de IA deben ser imparciales y no discriminatorios, evitando cualquier forma de sesgo o trato injusto.
  • Explicabilidad: las decisiones y acciones de la IA deben ser comprensibles para los humanos, garantizando transparencia en su funcionamiento.

Riesgos éticos específicos de los LLMs

Además de los principios generales, los LLMs presentan riesgos éticos específicos que los reguladores deben abordar:

  1. Discriminación y exclusión: los LLMs pueden generar contenido sesgado que perpetúe estereotipos o normas excluyentes si no se controlan adecuadamente los datos de entrenamiento. Esto puede ser perjudicial, especialmente en contextos sensibles como la ciencia regulatoria.
  2. Fugas de datos personales: los LLMs entrenados con datos públicos pueden procesar inadvertidamente información personal sin los controles adecuados. Esto representa un riesgo significativo para la privacidad y la seguridad de los datos, ya que eliminar o rectificar estos datos en un LLM es casi imposible una vez que han sido incorporados en sus pesos.
  3. Desinformación: los LLMs pueden generar y difundir información incorrecta o engañosa si los datos de entrada no se revisan adecuadamente. En el contexto de la medicina y la ciencia regulatoria, esto puede tener graves consecuencias, como la diseminación de información médica incorrecta.
  4. Uso malintencionado: existe el riesgo de que los LLMs sean utilizados con fines maliciosos, como fraudes, ataques cibernéticos o campañas de desinformación a gran escala.
  5. Interacción humano-computadora: los usuarios pueden sobreconfiar en las respuestas generadas por los LLMs, un fenómeno conocido como sesgo de automatización, que puede llevar a decisiones incorrectas basadas en respuestas inexactas o sesgadas.

5. Políticas de gobernanza por parte de los usuarios

Para garantizar el uso seguro y responsable de los LLMs, es crucial que las autoridades regulatorias y las organizaciones establezcan políticas de gobernanza claras y comprensibles para los usuarios. Estas políticas deben abordar tanto el uso diario de los LLMs como la gestión de los riesgos asociados. A continuación, se detallan los componentes clave de una gobernanza efectiva.

5.1. Medidas para el uso seguro de los LLMs

Uno de los aspectos más importantes del uso de LLMs es la entrada de datos. Los usuarios interactúan con los modelos introduciendo un prompt, lo cual puede variar desde una pregunta simple hasta la inclusión de grandes cantidades de datos contextuales. Para asegurar el uso seguro de los LLMs, es esencial:

  • Entender cómo se implementan los LLMs: los usuarios deben conocer si los modelos están alojados de forma interna y controlada por la organización, o si se trata de modelos de código abierto en línea, que pueden reutilizar los datos introducidos.
  • Ingeniería de prompts: diseñar los prompts de forma cuidadosa es fundamental para evitar la exposición de información sensible, como datos personales, secretos comerciales o información protegida por la ley de propiedad intelectual. Los prompts bien estructurados también ayudan a minimizar los sesgos en las salidas del LLM.
  • Evitar el uso de datos sensibles: los usuarios deben tener claro qué tipo de información no debe incluirse en un prompt, como datos personales, contraseñas o secretos comerciales.

Recomendaciones para los usuarios:

  1. Capacitación continua: es crucial que los usuarios se eduquen continuamente sobre las capacidades y limitaciones de los LLMs y que adapten sus prompts según el nivel de control que tenga la organización sobre el modelo.
  2. Revisión del contenido: los usuarios deben revisar las salidas generadas por los LLMs para verificar su exactitud, relevancia y fiabilidad, evitando el sesgo de automatización.
  3. Protección de datos: es importante que los usuarios eviten compartir datos protegidos o información confidencial a través de los LLMs.

5.2. Aprendizaje continuo y mejora de las prácticas

Dado que la tecnología de los LLMs está en constante evolución, las mejores prácticas también deben adaptarse continuamente. Los usuarios deben ser proactivos en la búsqueda de información y formación sobre cómo interactuar de manera más efectiva y segura con los LLMs.

Recomendaciones:

  • Mantenerse actualizado: es necesario que los usuarios mantengan un aprendizaje continuo sobre los desarrollos más recientes en la tecnología de LLMs y cómo utilizarlos de manera óptima.
  • Apoyarse en expertos internos: las organizaciones pueden proporcionar acceso a redes de expertos o centros de formación que ofrezcan soporte técnico y capacitación adicional.

5.3. Procedimientos para abordar incidentes

Es esencial que los usuarios sepan a quién recurrir cuando enfrenten problemas con los LLMs, como el uso de datos sensibles o salidas que puedan ser problemáticas. Estos procedimientos de consulta y reporte ayudan a asegurar que cualquier riesgo potencial sea rápidamente mitigado.

Recomendaciones:

  • Reportar incidentes: los usuarios deben estar capacitados para identificar y reportar rápidamente incidentes relacionados con la fuga de datos, sesgos en las respuestas o cualquier otro problema relacionado con el uso de LLMs.
  • Colaboración con el equipo de seguridad: los usuarios deben saber cómo contactar al equipo de seguridad de datos o al oficial de protección de datos (DPO) cuando surjan preocupaciones sobre la seguridad o privacidad de la información.

6. Conclusión

El uso de LLMs por los departamentos de regulatory affairs tiene un gran potencial para mejorar la eficiencia y efectividad de los procesos regulatorios, pero también requiere un marco de gobernanza sólido para minimizar los riesgos. Las organizaciones deben capacitar a los usuarios, implementar políticas claras y mantener un enfoque ético para garantizar que los LLMs se utilicen de manera segura, responsable y conforme a las normativas vigentes. Con una gobernanza adecuada y un aprendizaje continuo, el sector regulatorio puede aprovechar al máximo los beneficios de los LLMs sin comprometer la seguridad ni la ética.

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas