La OCDE detecta crecientes esfuerzos de transparencia entre los principales desarrolladores de IA

 

¿Cómo gestionan los riesgos los desarrolladores de IA? Las perspectivas derivadas de las respuestas al marco de presentación de informes del Código de Conducta del Proceso de IA de Hiroshima  analizan los informes de transparencia voluntarios, conforme al Proceso de IA de Hiroshima del G7, presentados por empresas de tecnología y telecomunicaciones, así como por instituciones de asesoramiento, investigación y educación, como Anthropic, Google, Microsoft, NTT, OpenAI, Salesforce y Fujitsu.

 

El análisis muestra que muchas organizaciones están desarrollando métodos cada vez más sofisticados para evaluar y mitigar riesgos, incluyendo pruebas adversas y herramientas asistidas por IA para comprender mejor el comportamiento de los modelos y mejorar su fiabilidad. Las empresas tecnológicas más grandes suelen contar con prácticas más avanzadas, especialmente en la evaluación de riesgos sistémicos y sociales.

 

El informe también concluye que los actores clave de la IA reconocen cada vez más la importancia de compartir información sobre la gestión de riesgos para generar confianza, facilitar el aprendizaje entre pares y crear entornos más predecibles para la innovación y la inversión. Sin embargo, las herramientas de procedencia técnica, como las marcas de agua, las firmas criptográficas y las credenciales de contenido, siguen siendo limitadas más allá de algunas grandes empresas.

 

 

 

Ver Nota completa