Los 5 elementos que necesita el código de ética de su estrategia de inteligencia artificial
A medida que crece el potencial de la inteligencia artificial (AI), también lo hace la necesidad de una estrategia cohesiva de AI para aprovechar la AI para priorizar y ejecutar los objetivos de la empresa. Además de articular los objetivos de negocios y trazar las formas en que las organizaciones pueden usar la IA para alcanzar esos objetivos, hay otro elemento extremadamente importante que cada estrategia de AI necesita: un código de ética.
El aumento de la IA trae consigo preguntas sobre quién es responsable de garantizar que estas potentes tecnologías se utilicen de forma responsable y segura. La razón por la que la ética es tan importante es que ahora tenemos inteligencia de máquina que se encuentra entre nosotros y las organizaciones con las que estamos tratando. Los algoritmos de AI no son neutrales. Los humanos los construyen y los deja expuestos a sesgos a medida que se programan o se usan. Las instancias de sesgo ya se encuentran en búsquedas de imágenes, software de contratación, búsquedas financieras y otras aplicaciones de IA programadas por humanos.
El establecimiento de estándares éticos no necesariamente cambia el comportamiento humano, pero crea una línea de base de ideales y comportamientos sobre cómo una empresa abordará su recopilación de datos y su uso a través de algoritmos AI y otras aplicaciones. Mitiga el riesgo dentro de la empresa, pero también permite a la organización comunicar sus estándares y su misión de atención al cliente al mercado.
A medida que la inteligencia artificial y las tecnologías de aprendizaje automático se convierten en parte de nuestra vida cotidiana y los datos y la información de big data se vuelven accesibles para todos, los CDO y los equipos de datos están asumiendo un papel moral muy importante como conciencia de la corporación.
Para establecer un mejor conjunto de comportamientos, aquí hay algunos principios que podrían cumplir los proveedores de tecnología:
1. Utilidad:
Asegúrese de que sus algoritmos sean claros, útiles y satisfactorios (encantadores) para el usuario. Establezca métricas holísticas: no se meta solo en los ingresos, sino que piense en los resultados sociales. Trate de medir los indicadores principales de los resultados sociales.
2. Empatía y respeto:
Valide que sus algoritmos comprendan y respeten las necesidades explícitas e implícitas de las personas. Tenga diversidad en sus equipos de datos: trabaje para tener una representación de la población en la que estaría implementando los algoritmos. Evita las anteojeras de los equipos homogéneos. Los equipos diversos trabajarán para tener diversos datos de entrenamiento, conjuntos de características más inteligentes y menos sesgo en los datos.
3. Confianza:
Esfuércese para que sus algoritmos sean transparentes, seguros y consistentes en su comportamiento. Si bien la explicabilidad de los algoritmos de aprendizaje profundo es difícil, explore algoritmos alternativos donde sea posible o exponga la lógica / las reglas en la mayor medida posible. Tener equipos de ciencia de datos centralizados o un centro de excelencia para evitar o mitigar el sesgo de la línea de negocios. Por ejemplo, el equipo de ciencia de datos que informa a las ventas se inclinará hacia el sesgo de los objetivos de ventas. La centralización del equipo de ciencia de datos evita ese sesgo. Sin embargo, en algunas situaciones, es posible que tenga una estructura de centro y radio donde el equipo de ciencia de datos de línea de negocio (LOB) se alinee con el centro de excelencia para mitigar esos sesgos.
4. Equidad y seguridad:
Asegúrese de que los algoritmos estén libres de sesgos que puedan causar daños, en el mundo digital o físico, o ambos, a las personas y / o a la organización. Aproveche las herramientas de imparcialidad para detectar sesgos no deseados en los conjuntos de datos, modelos de aprendizaje automático y algoritmos de vanguardia para mitigar dicho sesgo. Los equipos de datos deben estar constituidos para ser oficiales de «conciencia» y monitorear el uso de AI para garantizar que los datos, y las personas que representan, estén protegidos.
5. Responsabilidad:
Establezca procesos claros de escalada y gobernanza y ofrezca recursos si los clientes no están satisfechos. Esta responsabilidad tiene que venir desde la parte superior de la organización; los ejecutivos deben permanecer enfocados en refinar las prácticas de diseño, crear una IA enfocada en el ser humano y auditar los sesgos. Haga que las prácticas de gobernanza de datos se realicen de forma conjunta por parte de TI, así como las de las funciones comerciales y de cumplimiento.
La confianza de la sociedad es fundamental para la adopción generalizada de la IA. La IA puede no estar completamente desprovista de sesgos, al igual que los humanos no. Sin embargo, diversos equipos de datos, con las asociaciones adecuadas, pueden ayudar a replantear las consecuencias impulsadas por la inteligencia artificial en términos de derechos humanos y hacerlo más aceptable. Al crear un código de ética en su estrategia de AI , su empresa demuestra un compromiso con el uso responsable de la tecnología, lo que puede traducirse en mejores resultados comerciales.
Obtenga más información sobre las formas en que la madurez y las estrategias de la IA pueden afectar a su organización para mejor; vea aquí el webcast a pedido de IDC, “Cómo influye su madurez en la IA al crear una estrategia corporativa ganadora”.
Traducción del artículo original de IDC
https://blogs.idc.com/2019/05/21/the-5-elements-your-ai-strategys-code-of-ethics-needs/
May 21, 2019 / Por Ritu Jyoyi