el aprendizaje automático de los prejuicios.

6 formas de combatir el sesgo en el aprendizaje automático

Los datos a menudo reflejan los sesgos que impregnan el mundo en general. Para que los procesos de aprendizaje automático sean más equitativos, debemos emplear una variedad de métodos para eliminar el sesgo.

Al igual que los humanos, los datos son profundamente susceptibles al sesgo. Los humanos crean datos y, por lo tanto, reflejan nuestros propios sesgos, suposiciones y puntos ciegos. Es inevitable, entonces, que existan sesgos sociales tanto en los datos de la empresa como en los datos de fondo que alimentan los algoritmos modernos de procesamiento del lenguaje natural (NLP) . A pesar de esto, hay formas de identificar y contrarrestar la toma de decisiones sesgada por parte de los modelos. Aunque ninguno de estos métodos es una panacea y siempre debe usarse junto con la participación humana, pueden ayudar a abordar posibles problemas a medida que surjan.

Fuentes de sesgo en una tarea de ML

Desde problemas de corpus hasta problemas de toma de decisiones, el sesgo se presenta de muchas maneras en el campo del aprendizaje automático (ML). Todas las siguientes son fuentes comunes de sesgo.

Sesgo de fondo. Los enfoques de NLP basados ​​en modelos de lenguaje consumen cantidades de texto a escala web para brindar a los sistemas de NLP conocimientos básicos sobre cómo funciona el lenguaje. Aunque el beneficio de este método es que una pequeña cantidad de datos de entrenamiento puede producir excelentes resultados, los sesgos sociales se filtran a través del corpus previo al entrenamiento. Un ejemplo es la tendencia a asociar los nombres europeo-estadounidenses con un sentimiento positivo y los nombres afroamericanos con un sentimiento negativo .

Sesgo perceptivo. Muchas tareas de capacitación de ML buscan replicar los juicios humanos, y esos juicios pueden basarse en sesgos existentes, ya sea conscientes o inconscientes. Por ejemplo, un estudio encontró una fuerte tendencia a que  los atletas blancos fueran descritos como trabajadores e inteligentes, mientras que los atletas negros fueron etiquetados como físicamente poderosos y atléticos. Es muy probable que cualquier dato de entrenamiento proveniente del juicio humano contenga sesgos sociales.

Sesgo de resultado. Los puntos de datos que no derivan obviamente del juicio humano también pueden reflejar prejuicios sociales existentes. El incumplimiento de pago de un préstamo es un evento fáctico que sucedió o no sucedió. Sin embargo, el evento aún puede estar arraigado en oportunidades desiguales. Por ejemplo, las personas de color sufrieron más pérdidas de empleos durante la reciente recesión y tardaron más en recuperar sus empleos. Es importante comprender que no existe una división clara entre los conjuntos de datos «fácticos» y los «sesgados»: los sesgos sociales pueden afectar cualquier aspecto medible de la vida de una persona.

Sesgo de disponibilidad. El aprendizaje automático funciona mejor con patrones claros y repetidos con frecuencia. Es más probable que los sistemas de ML pasen por alto a aquellos que no encajan perfectamente en tales patrones. Por ejemplo, una empresa que contrata principalmente en los Estados Unidos puede no tener en cuenta a los asistentes de universidades extranjeras debido a la falta de datos. El uso de diferentes nombres de grados y títulos a nivel mundial también podría afectar la toma de decisiones de un algoritmo.

6 formas de combatir el sesgo en el aprendizaje automático

  • Anonimización y Calibración Directa
  • Modelos lineales
  • Aprendizaje adversario
  • Limpieza de datos
  • Auditorías y KPI
  • Exploración humana

Prácticas recomendadas para eliminar el sesgo de ML

Dados todos estos problemas, deberíamos ver el aprendizaje automático con cierta suspicacia, al igual que los procesos humanos. Para avanzar en la eliminación de sesgos, debemos buscar de forma activa y continua signos de sesgo, incorporar procesos de revisión para casos atípicos y mantenernos actualizados con los avances en el campo del aprendizaje automático.

A continuación se presentan algunas de las técnicas y procesos que podemos implementar para abordar el sesgo en ML.

Anonimización y Calibración Directa. La eliminación de nombres y pronombres de género de los documentos a medida que se procesan es un buen primer paso, al igual que la exclusión de marcadores claros de clases protegidas. Aunque este es un comienzo importante, no es una solución completa. Estas señales aún aparecen en muchos lugares que son imposibles de desentrañar por completo. La investigación ha demostrado que el sesgo permanece en las asociaciones de segundo orden entre palabras: por ejemplo, las palabras asociadas «femenino» y «masculino» aún se agrupan y  , como resultado, aún pueden formar señales no deseadas para los algoritmos. Sin embargo, la aleatorización de nombres a medida que ingresamos datos en un modelo evita que el algoritmo utilice ideas preconcebidas sobre el nombre en su toma de decisiones. Esta también es una buena práctica en la selección inicial de currículums, incluso cuando la realizan humanos.

Modelos Lineales. Los modelos profundos y los árboles de decisión pueden ocultar sus sesgos más fácilmente que los modelos lineales, que proporcionan ponderaciones directas para cada característica en consideración. Para algunas tareas, entonces, puede ser apropiado cambiar la precisión de los métodos más modernos por las explicaciones simples de los enfoques tradicionales. En otros casos, podemos usar el aprendizaje profundo como un algoritmo «maestro» para clasificadores lineales: una pequeña cantidad de datos anotados se usa para entrenar una red profunda, que luego genera predicciones para muchos más documentos. Estos luego entrenan al clasificador lineal. Esto puede acercarse a la precisión del aprendizaje profundo, pero permite que un ser humano vea los motivos de una clasificación, lo que marca las características potencialmente sesgadas en uso.

Aprendizaje adversario. Si un modelo no puede determinar de manera confiable el género o la raza, es difícil que se desempeñe de manera sesgada. El aprendizaje adversario comparte los pesos en una red profunda entre dos clasificadores: uno resuelve el problema de interés y el otro determina algún hecho como el género del autor. El clasificador principal se entrena como de costumbre, pero el clasificador adversario, por ejemplo, un clasificador de género, penaliza los pesos cuando el modelo hace una predicción correcta hasta que ese clasificador falla constantemente. Si la representación interna del documento contenía una señal de género, esperaríamos que el segundo clasificador finalmente la descubriera. Como no puede, podemos suponer que el primer clasificador no está haciendo uso de esta información.

Limpieza de datos. En muchos sentidos, la mejor manera de reducir el sesgo en nuestros modelos es reducir el sesgo en nuestros negocios. Los conjuntos de datos utilizados en los modelos de lenguaje son demasiado grandes para la inspección manual, pero vale la pena limpiarlos. Además, capacitar a los humanos para que tomen decisiones y observaciones menos sesgadas ayudará a crear datos que hagan lo mismo. La capacitación de los empleados junto con la revisión de los datos históricos es una excelente manera de mejorar los modelos y, al mismo tiempo, abordar indirectamente otros problemas del lugar de trabajo. A los empleados se les enseña acerca de los sesgos comunes y sus fuentes, y revisan los datos de capacitación en busca de ejemplos de decisiones o lenguaje sesgado. Los ejemplos de capacitación se pueden recortar o corregir, mientras que los empleados se vuelven más cuidadosos en su propio trabajo en el futuro.

Auditorías y KPI. El aprendizaje automático es complicado y estos modelos existen dentro de procesos humanos más grandes que tienen sus propias complejidades y desafíos. Cada pieza en un proceso comercial puede parecer aceptable, pero el agregado aún muestra sesgo. Una auditoría es un examen más profundo ocasional de un aspecto de un negocio o de cómo un ejemplo se mueve a lo largo de todo el proceso, buscando activamente problemas. Los indicadores clave de rendimiento, o KPI, son valores que se pueden monitorear para observar si las cosas van en la dirección correcta, como el porcentaje de mujeres promovidas cada año. Los ejemplos auditados pueden ser atípicos y los KPI fluctúan naturalmente, pero buscar posibles problemas es el primer paso para resolverlos, sin embargo, eso puede terminar lográndose.

Exploración Humana . Esta es una de las mejores formas de encontrar problemas en sistemas reales. Los estudios que enviaron a los empleadores currículos idénticos con nombres estereotípicamente blancos y negros como su única variable han demostrado sesgos de contratación en las empresas estadounidenses. Permitir que las personas jueguen con entradas o busquen a través de estadísticas agregadas es una forma valiosa de descubrir problemas sistémicos desconocidos. Para tareas particularmente importantes, incluso puede implementar «recompensas de sesgo», ofreciendo recompensas en efectivo a las personas que encuentran fallas claras en una implementación. Dependiendo de la sensibilidad de los datos, esto podría ser el acceso a los resultados de los modelos en la práctica, de modo que los investigadores puedan demostrar estadísticamente las formas en que los modelos actuaron de forma sesgada en el pasado, o una oportunidad para crear datos falsos en un esfuerzo por demostrar que algún patrón de uso causa problemas no deseados. comportamiento por parte del modelo.

Para llevar: tómese en serio la lucha contra el sesgo

Los datos limpios y abundantes, los algoritmos apropiados y la supervisión humana son fundamentales para la implementación exitosa de aplicaciones de inteligencia artificial en los procesos comerciales. Especialmente cuando los datos son insuficientes, puede que no sea apropiado aplicar estas técnicas a todos los problemas. Sin embargo, también es importante reconocer los sesgos en los procesos humanos; evitar la IA no hace que los problemas desaparezcan.

Por lo tanto, es vital un compromiso con la eliminación del sesgo como un proceso continuo, tanto con respecto al LD ​​como a los agentes humanos. Hacerlo puede ayudar a diversificar las organizaciones, mitigar el impacto de los sesgos sistémicos ocultos y promover la equidad en una organización, fomentando resultados positivos en los esfuerzos de reclutamiento, retención y reconocimiento de marca.

Relacionado: Dentro de la búsqueda colaborativa de inteligencia artificial de voz inclusiva