El laboratorio comparó con tecnologías de reconocimiento de objetos por medio de inteligencia artificial, una fotografía original y una copia alterada con una persona en la misma escena y con los mismos objetos pero del sexo opuesto. Lo que hicieron las tecnologías de IA fue identificar de manera correcta lo que se apreciaba en la imagen, solo cuando correspondía con los estereotipos de género.
El laboratorio Bikolabs realizó un experimento para responder a la pregunta ¿Qué ‘ven’ los algoritmos de reconocimiento de imágenes cuando nos ‘miran’? y encontraron en productos del mercado y algunos modelos pre entrenados de inteligencia artificial (IA) sesgos de género preocupantes. Al someter a tecnologías de inteligencia artificial (AI) de Amazon Rekognition e ImageNet y otras a que identificaran lo veían en fotografías donde aparecían modelos realizando labores relacionadas con estigmas de género, estas tecnologías generaban etiquetas orientadas a estereotipos sexistas.
El laboratorio comparó con tecnologìas de reconocimiento de objetos por medio de inteligencia artificial, una fotografía original y una copia alterada con una persona en la misma escena y con los mismos objetos pero del sexo opuesto. Lo que hicieron las tecnologías de IA fue identificar de manera correcta lo que se apreciaba en la imagen, solo cuando correspondía con los estereotipos de género.
Bikolabs primero realizó un experimento para medir el desempeño de la app CamFind en el que retiraron algunos objetos de las imágenes con las que cuenta en su catálogo y encontraron sesgos de género. Lo mismo ocurrió al analizar los proyectos Amazon Rekognition e ImageNet. En estos experimentos encontraron que al comparar fotografías donde aparecen personas con objetos históricamente estereotipados, como escobas o taladros, las descripciones atendían al género.
En las dos imágenes idénticas a excepción del género del modelo, la tecnología de IA decía ver un secador de pelo cuando en realidad era un martillo, en el caso en que se mostraba a una mujer y solo pudo identificar un taladro cuando el sujeto portaba barba.
A partir del experimento, Bikolabs concluyó en un texto publicado en Medium , escrito por Ujué Agudo y Karlos G. Liberal que las tecnologías de la IA no son en estos momentos objetivas ni neutrales y que por el contrario su capacidad de reconocimiento es «ineficaz, discriminatorio, sexista y racista». También señalaron que estos sesgos pueden ser ocasionados por los humanos que programan estas tecnologías.
En la actualidad, los desarrolladores de tecnología digital consideran que la IA puede aportar en al reconocimiento de objetos a través de imágenes y la apuesta de los corporativos es amplia. Amazon ha invertido en el proyecto Amazon Rekognition y existen otros proyectos creados con base en modelos y arquitecturas de redes neuronales profundas como Img2txt o MobilNet, que se dedican a identificar objetos en imágenes o videos y luego las etiquetan.
Estos proyectos se han realizado con fines comerciales, y en un futuro se proyecta su uso en el reconocimiento facial, la realidad virtual y la investigación académica. Sin embargo, se han obviado algunas problemáticas que presenta esta tecnología al realizar esta tarea. Según Bikolabs, el reconocimiento de imágenes por medio de la IA tiene una definición limitada a las capacidades tecnológicas actuales y está orientada a objetivos concretos. Esta concepción se distancia de la interpretación de la Inteligencia Artificial General (AGI, por sus siglas en inglés) que aspira a igualar la inteligencia humana, señaló el laboratorio digital.
Como referencia sobre los sesgos que se encuentran en el reconocimiento mediante IA de objetos en imágenes, Bikolabs citó un experimento en el que tecnologías como Google Cloud Vision, Amazon Rekognition o IBM Watson fueron 15 por ciento más precisas cuando analizaron imágenes realizadas en los Estados Unidos que cuando lo hacían con imágenes realizadas en países en desarrollo como Burkina Faso. En este nuevo experimento los sesgos identificados fueron con relación a los estereotipos machistas alimentados durante décadas por los medios de comunicación.
La IA identifica objetos a partir de repositorios de imágenes muy limitados. De acuerdo con Bikolabs, en un principio utilizaban datasets con 21 mil categorías y en la actualidad su catálogo en tecnologías como ImageNet se basa solo en mil de ellas. Esto ocasiona que cuando se pone a trabajar a la IA en categorías con las que no cuenta, sus resultados son muy pobres, un ejemplo es MobileNet que al no contar con la categoría «persona» si se le pone a analizar seres humanos sus resultados son fallidos.
En otras investigaciones han encontrado que en tecnologías de IA que sí incluyen la categoría «persona» generan resultados racistas y con términos misóginos. En la investigación “Excavating AI” los investigadores encontraron que la herramienta WordNet, desarrollada por la Universidad de Princeton identifica personas con palabras como: “pervertido, solterona, zorra, ramera, semental, pajero, perdedor o cabrón”.