NOTICIAS

Cómo asegurar que “criamos” una Inteligencia Artificial ética

La IA se encuentra en una etapa temprana, aun con el tremendo progreso tecnológico que se ha conseguido en los años recientes. Y tal como un niño pequeño aprende de y se forma por las acciones que lo rodean, la IA aprende de nosotros. Así que nosotros, los padres que “criamos” a la IA, debemos asegurar que inculcamos valores y ética a nuestros productos y servicios de IA que reflejan y respetan al mundo que nos rodea.
asegurar-criamos-Inteligencia-Artificial-ética
Es por eso que en la actualidad pensamos a profundidad acerca de la ética de la IA. Esta ética dará forma a nuestro futuro y debemos educarnos a nivel colectivo sobre los problemas si vamos a construir sistemas de IA de manera responsable. Es por eso que lanzamos el libro The Future Computed, el cual discute el rol de la IA en la sociedad y articula seis principios que creemos deberían guiar el desarrollo de la IA. En un reciente foro de IA, conversé sobre 3 de estos principios que elevan preocupaciones de particular importancia – prejuicios, transparencia y responsabilidad.

Primero, hablemos sobre los prejuicios – incluidos los nuestros. Vemos diferentes fuentes de prejuicios en sistemas de IA. Algunos derivan de influencias culturales integradas de manera profunda y no deseada. Estos prejuicios sociales pueden llevar a una representación alta o baja de conjuntos de datos utilizados para entrenar sistemas de IA que lleven a suposiciones acerca del género, color de piel y/o edad de un individuo.

Pero incluso con una representación acertada, aún necesitamos asegurar que todos los sistemas de AI funcionan de buena manera para todos. En ocasiones los retos vienen de una deficiencia en los datos, pero en otras cosas vienen de insuficiencias en nuestros propios modelos y algoritmos. Los humanos crean los algoritmos y modelos, y estamos plagados de prejuicios.

Aunque hemos conseguido progreso y aprendido lecciones importantes, tenemos un largo camino por recorrer. Una de nuestras más grandes preocupaciones es todavía que incluso después de enfrentar problemas un grupo de gente, debemos resolverlos para un mundo diverso, lleno con una infinidad de tonos de piel, acentos y muchas otras características humanas. Este es un problema muy complejo que tomará años resolver.

Lo que la IA nos ha reflejado es cómo nosotros, como sociedad, nos auto-prejuiciamos. Así que, ¿Cómo codificamos los programas de computadora para que no reflejen y amplifiquen nuestras fallas? Ese es un problema mayor que la tecnología no puede resolver por sí sola. Pero no nos rendiremos hasta encontrar las maneras de asegurar la equidad para todos.

Además de aprender a abordar los prejuicios, debemos enseñar a la IA el poder de responder “¿Por qué?” Los niños, de manera natural, preguntan “¿Por qué?” Las máquinas no lo hacen. Transparencia – asegurarnos que podemos entender y ver las decisiones que toma la IA – es un imperativo ético que se centra alrededor del campo de lo que llamamos Explainable AI (o IA Explicativo), o en otras palabras, responder al “¿Por qué?”

Imaginen que un doctor recibe datos de un algoritmo de IA que revela que un familiar suyo tiene cáncer. Ustedes quisieran saber por qué de inmediato. ¿Cuál es la prueba de esto? Quisieran que el doctor les explicara cómo utilizó los datos referentes al tamaño y color del tumor para llegar a esa conclusión. Y sin dudas, ustedes quisieran que se los explicaran de una manera que pudieran entender.

Necesitamos estar informados del por qué la IA llegó a una recomendación o decisión en particular. Necesitamos que la IA no sólo sea una “caja negra” que suelta datos e información sin contexto o explicación. Somos seres humanos, necesitamos saber por qué.

Por último, además de que pueda explicar por sí misma, la IA debe ser responsable. La responsabilidad significa asegurarse que no sólo entendemos por qué la IA llegó a cierta conclusión sino también asegurar que hay una responsabilidad humana directa que supervise las decisiones importantes. A esto lo llamamos tener “un humano en el círculo”.

Una sencilla manera de salvaguardar la responsabilidad es crear situaciones donde un sistema de IA no es completamente autónomo. La IA sólo brinda toda la información necesaria para que el “humano en el círculo” tome la decisión final. Antes de lanzar un cohete, por ejemplo, necesitan que una persona oprima el botón rojo. Antes de tomar una decisión sobre un tratamiento o procedimiento, necesitan que un doctor humano tome la decisión. La información compleja es brindada por la IA, pero las decisiones finales son tomadas por el “humano en el círculo”. Necesitamos pensar en aplicar este tipo de escenarios de IA donde hay una sensibilidad cultural y las potenciales consecuencias son muy altas.

En Microsoft, hemos trabajado en estos retos por mucho tiempo. Nuestros investigadores ayudaron a establecer las reglas de un aprendizaje automático justo, responsable y transparente. Hoy, los científicos en Microsoft Research buscan métodos para detectar y enfrentar prejuicios. Hemos desarrollado un conjunto de principios éticos guía para la IA y un comité formal de ética en IA llamado Aether, a través del cual intentamos revisar todos nuestros productos de IA antes de que sean lanzados. Cofundamos Partnership on AI para examinar cómo la IA nos puede ayudar a resolver nuestros problemas más complicados. Y The Future Computed presenta los principios clave para guiar a nuestros sistemas de IA.

Conforme desarrollamos la IA, es nuestra responsabilidad plantear preguntas y estudiar los problemas ahora para que nuestra tecnología pueda crear beneficios y oportunidades para todos. Debemos construir sistemas de IA para escuchar todas las voces y reconocer todos los rostros de manera equitativa a través de nuestro diverso mundo, y asegurar que el tremendo poder de la IA esté acompañado por la transparencia y la responsabilidad que pone a los humanos en el asiento del conductor. Hay una gran posibilidad, pero tenemos mucho más trabajo por hacer.

---- 
revista-whats-up-aficiones-colombia