Retos de las organizaciones para unas prácticas de IA responsable

Por Patricia Ojeda

Existe la urgencia de priorizar el uso responsable de la IA y garantizar su transparencia, no solo para cumplir con las regulaciones emergentes sino también para fomentar la confianza en estas herramientas. Tal y como destaca un informe elaborado por Qlik®, en colaboración con el Grupo de ESG de TechTarget para analizar las prácticas de IA responsable en diferentes industrias, la ética de la IA es uno de los principales desafíos a los que se enfrentan las compañías de diferentes sectores a la hora de implementar esta tecnología en procesos empresariales.

Entre estos retos y las iniciativas estratégicas que rodean esta tecnología resaltan la adopción masiva de la IA. Casi la totalidad de las organizaciones encuestadas (un 97%) están utilizando de alguna manera la Inteligencia Artificial, con un 74% ya implementando tecnología de este tipo en fase de producción. Lo cual supone una tendencia clara hacia las operaciones AI-driven en distintos sectores.

No obstante, existe una brecha entre Inversión y Estrategia. Si bien todos los encuestados reconocen estar invirtiendo en IA, un 61% está dedicando un presupuesto significativo a estas tecnologías. Pese a esto, un 74% de las organizaciones admiten que aún carecen de una estrategia unificado a nivel organizativo cuando se trata de implementar la IA de forma responsable.

Por otro lado, con el foco en los desafíos éticos de la IA, el informe destaca varios desafíos clave a los que se enfrentan las organizaciones, incluyendo que: Un 86% de ellas tienen dificultades para garantizar la comprensión y la transparencia de sistemas basados en IA.

Además, se revela que casi la totalidad de las organizaciones (99%) tienen dificultades a la hora de cumplir con las regulaciones y estándares normativos, subrayando la complejidad legislativa que rodea todavía a esta tecnología.

Por otro lado, a pesar de los retos, un 74% de las organizaciones sitúan como máxima prioridad el uso de una IA responsable. Más de una cuarta parte de las organizaciones afirman que se han encontrado con un incremento de costes operativos, un escrutinio normativo y retrasos en la salida al mercado, debido a una falta de responsabilidad aplicada a la IA.

Por último, desde el informe se pone el foco en los stakeholders y que ellos también deben tomar decisiones sobre la IA. Esta investigación resalta la participación de los stakeholders en este ámbito, poniendo el foco en los departamentos de TI, que estarían desempeñando el papel más proactivo. Todo ello enfatiza la necesidad de plantear enfoques inclusivos y colaborativos a nivel de stakeholders en el despliegue y la gobernanza ética de la IA.

Fuente: Patricia Ojeda para Füture. Blog de Innovación del sector asegurador. (22 julio de 2024)