Del curso: Inteligencia artificial más allá de la ingeniería

Ética en la IA y RSC

Del curso: Inteligencia artificial más allá de la ingeniería

Ética en la IA y RSC

¿Por qué afecta la ética a la inteligencia artificial? ¿Cómo aplicarla de una forma responsable en las empresas? Puede que hayas oído o leído noticias con bastante impacto mediático en las que, debido a los sesgos, grupos de personas se han visto desfavorecidas ante decisiones que ha tomado la inteligencia artificial. Dos ejemplos repetidos y que han dado bastante que hablar son la priorización de hombres respecto a mujeres en la preselección de sus currículums en procesos de selección o en la aprobación de créditos bancarios. Estos sesgos de género vienen motivados por el histórico de datos con el que se han entrenado los modelos. En el caso de las contrataciones, al tratarse de altos cargos en empresas, en el histórico había pocas referencias de mujeres. En el caso de los créditos bancarios sucede algo parecido, ya que históricamente ha sido el hombre quién se ha encargado de la economía familiar y es quien todavía suele tener salarios más elevados, lo que supone más solvencia para poder devolver los créditos. ¿Son decisiones éticas? ¿En qué momento debemos plantearnos la ética en los datos? La respuesta es sencilla: en todos, desde que se recopilan los datos, ya que su uso debe ser comunicado adecuadamente, pasando por cómo se guardan o almacenan dichos datos, con quién se comparten, por qué y para qué. Y por último y más importante si cabe, cómo está afectando a la toma de decisiones, especialmente si esa toma de decisiones es automatizada. Los dos ejemplos anteriores son bastante conocidos, sin embargo, no solo existen sesgos de género, sino también con cualquier minoría poco representada en el histórico de datos que pueda generar predicciones erróneas. Y los sesgos no son solo producidos por los propios datos, sino también inferidos por las personas. Por cuestiones culturales o creencias, profesionales al cargo del desarrollo de estos algoritmos pueden priorizar unas decisiones frente a otras casi de manera inconsciente porque son prejuicios con los que conviven día a día. En este sentido, es muy importante que los equipos de desarrollo sean multidisciplinares y que en ellos existan diferentes culturas y géneros; también procedimientos definidos para interpretar el modelo antes de su puesta en producción. ¿En qué consiste la interpretación de los modelos? La interpretación en el campo de la inteligencia artificial consiste en atribuir significado y explicar el funcionamiento de los algoritmos. Es importante que esta explicación sea comprensible por los usuarios de negocio o los usuarios finales si queremos ser transparentes. La interpretación nos ayuda a entender cómo están compuestos los datos y por qué se consiguen esos resultados, a identificar si hay alguna categoría que esté más representada que otras pudiendo afectar a los resultados finales y, sobre todo, a conseguir una inteligencia artificial confiable y responsable. Para considerar una inteligencia artificial ética, debemos tener en cuenta aspectos como seguridad y privacidad, equidad, integración, confiabilidad, transparencia y responsabilidad. Los técnicos y profesionales que trabajamos con inteligencia artificial debemos preocuparnos por la ética, no obstante, desde diferentes organizaciones, como la UNESCO o la Organización Mundial de la Salud, ya trabajan en la definición de unas pautas para reforzar la ética en la inteligencia artificial. Sin duda, necesitamos un marco ético global para la inteligencia artificial si queremos anticiparnos a algunas consecuencias que pueda tener para la sociedad y las personas. Debemos evitar posibles impactos negativos y así maximizar los beneficios de la tecnología. Por desgracia, no hay soluciones simples a todos los desafíos futuros que se presentan. Mientras se consigue la cooperación internacional, debe ser responsabilidad de los creadores de la tecnología asegurar que el trabajo desarrollado ayudará a la humanidad de una manera justa y positiva. Conviene recordar que los prejuicios pueden impregnar, de forma intencionada o no, los resultados de los sistemas y que los modelos pueden perpetuar la discriminación si no se detecta el sesgo en los datos.

Contenido