¿Qué hace que una inteligencia artificial sea racista y exista?

por calpee

La inteligencia artificial se está infiltrando en nuestra vida cotidiana, con aplicaciones que curan sus fotos telefónicas, gestionan su dirección de correo electrónico y traducen texto de cualquier idioma a otro. Google plus, Fb, Apple y Microsoft están investigando en gran medida cómo integrar la IA en sus principales servicios. Pronto probablemente interactuarás con una IA (o su salida) cada vez que coges tu teléfono. ¿Debería confiar en él? No siempre.

AI analiza los datos de forma más rápida y precisa que los humanos, pero el también hereda nuestros sesgos. Para aprender, necesita cantidades masivas de datos, y la forma más fácil de encontrar esos datos es alimentarlo texto de Internet. Pero Internet contiene un lenguaje extremadamente sesgado. Un estudio de Stanford encontró que una IA entrenada por Internet asoció nombres estereotipicamente blancos con palabras positivas como “amor” y nombres negros con palabras negativas como “fracaso” y “cáncer”.

El director de ciencia de Luminoso, Rob Speer, supervisa el equipo de datos de código abierto ConceptNet Numberbatch, que se utiliza como base de conocimiento para sistemas de IA. Probó una de las fuentes de datos de Numberbatch y encontró problemas obvios con sus asociaciones de palabras. Cuando se alimenta la pregunta de la analogía “El hombre es a la mujer como comerciante es …” el sistema lleno de “ama de casa.” También asociaba a las mujeres con costura y cosmética.

Aunque estas asociaciones podrían ser apropiadas para determinadas aplicaciones, causarían problemas en tareas comunes de IA como la evaluación de solicitantes de trabajo. Una IA no sabe qué asociaciones son problemáticas, por lo que no tendría problema en la cima de un currículum de mujer inferior a un currículum idéntico de un hombre. Del mismo modo, cuando Speer intentó construir un algoritmo de revisión de lugar de comidas, calificó la comida mexicana a la baja porque había aprendido a asociar “mexicano” con palabras negativas como “ilegales”.

Así que Speer entró y des-sesgada ConceptNet. Identificó asociaciones inapropiadas y las ajustó a cero, mientras mantenía asociaciones apropiadas como “man/tío” y “mujer/tía”. Hizo lo mismo con las palabras relacionadas con la raza, la etnia y la religión. Para luchar contra el sesgo humano, se llevó a un humano.

G/O bien Media puede obtener una comisiónPlayStation Agregado 12-Month SubscriptionBuy por $27 de EnebaUse el código promocional OCTOBERPS

Numberbatch es la única base de datos semántica con des-biasing integrado, dice Speer en una dirección de correo electrónico. Está feliz por esta ventaja competitiva, pero espera que otras bases de conocimiento sigan el ejemplo:

Lo más aterrador de este sesgo es lo invisiblemente que se toma el . Según Speer, “algunas personas […] pasarán por la vida sin saber por qué tienen menos oportunidades, menos ofertas de trabajo, más interacciones con la policía o la TSA …” Por supuesto, señala, el racismo y el sexismo se cuecen en la sociedad, y los prometedores avances tecnológicos, incluso cuando se supone explícitamente para contrarrestarlos, a menudo los amplifican. No hay tal cosa como una herramienta objetiva construida sobre datos subjetivos. Por lo que los desarrolladores de IA tienen una gran responsabilidad de encontrar los defectos en su IA y abordarlos.

“Debería haber más comprensión de lo que es real y lo que es el hype”, dice Speer. “Es fácil exagerar la IA porque la mayoría de la gente no tiene las metáforas adecuadas para entenderlo todavía, y eso impide que la gente sea apropiadamente escéptica.

” No hay IA que funcione como el cerebro humano “, dice. ” Para contrarrestar el bombo, espero que deje de hablar de cerebros y empiece a hablar de lo que realmente está pasando: es sobre todo estadísticas, bases de datos y reconocimiento de patrones. Lo que no debería hacer que sea menos interesante. “

You may also like

Leave a Comment