Sage, especialista internacional en sistemas de contabilidad en la nube, ha hecho un llamamiento para que la comunidad tecnológica internacional asuma su responsabilidad en el desarrollo ético de la Inteligencia Artificial (IA) en el ámbito empresarial. Con la publicación de “Código Ético: Desarrollo de la Inteligencia Artificial para empresas basado en cinco principios básicos”, Sage pone en valor las recomendaciones a tener en cuenta en la Industria 4.0 (también llamada cuarta revolución industrial).
Este código de conducta ha sido desarrollado por Sage durante la construcción del propio programa de aprendizaje automático de IA de la compañía, diseñado específicamente para reducir los procesos de administración financiera de los empresarios de cualquier envergadura, desde start-ups hasta grandes empresas.
Kriti Sharma, vicepresidenta de Bots e Inteligencia Artificial de Sage, explica: “Desarrollar chatbots y programas de Inteligencia Artificial que ayuden a nuestros clientes es la parte sencilla de nuestro trabajo; lo difícil es gestionar todas las dudas que esta disrupción tecnológica genera, dado que son muy amplias y diversas. Por este motivo, desarrollamos nuestra IA dentro de un conjunto de guías que funcionan como principios básicos y contribuyen a garantizar que nuestros productos son seguros y éticos”.
“El «Código ético» ha sido diseñado para proteger al usuario y asegurar que los gigantes de la tecnología, entre los que se encuentra Sage, están implementando la Inteligencia Artificial de forma segura. Además, queremos actuar como líderes y hacer un llamamiento a otras empresas (pymes, grandes compañías o hackers) para pedirles que tengan en cuenta estos principios a la hora de desarrollar sus propios sistemas de Inteligencia Artificial”, afirma Kriti Sharma.
Código Ético: Desarrollo de la Inteligencia Artificial para empresas basado en cinco principios básicos
La Inteligencia Artificial debe reflejar la diversidad de los usuarios a los que sirve
Tanto la industria como la comunidad tecnológica deben desarrollar mecanismos eficaces para filtrar los sesgos y el sentimiento negativo de los datos recogidos por la Inteligencia Artificial. Esto servirá para garantizar que la IA no perpetúa estereotipos erróneos.
La Inteligencia Artificial debe rendir cuentas, igual que lo hacen los usuarios
Los usuarios construyen una relación de confianza con la IA tras varias interacciones significativas. Después de adquirir confianza, llega la responsabilidad, y la IA tiene que responsabilizarse de sus acciones y decisiones, igual que lo hacen los seres humanos. Si no aceptamos este tipo de comportamientos de otros profesionales “expertos”, ¿por qué deberíamos hacer una excepción con la tecnología?
Recompensa a la Inteligencia Artificial por sus progresos
Cualquier sistema de IA que base su aprendizaje en malos ejemplos podría llegar a ser socialmente inapropiado. En la actualidad, que los sistemas de IA amplíen su campo de escucha y de recogida de datos es la solución para que progresen en su aprendizaje.
Uno de los retos es el desarrollo de un mecanismo de recompensa. Las medidas de aprendizaje y refuerzo deben construirse no solo basándose en lo que la IA o los robots hacen para lograr un resultado, sino en cómo se alinean con los valores humanos para lograr ese resultado concreto.
La Inteligencia Artificial debe garantizar la igualdad de condiciones
Las tecnologías sociales, como los asistentes de voz o los robots, ofrecen soluciones de rápido acceso, especialmente indicadas para personas con alguna discapacidad por problemas de visión, dislexia o movilidad reducida. La comunidad tecnológica empresarial necesita acelerar el desarrollo de nuevas tecnologías para garantizar la igualdad de condiciones y ampliar el número de talentos disponibles.
Para poder ver el contenido completo tienes que estar suscrito. El contenido completo para suscriptores incluye informes y artículos en profundidad