NY Report News
Image default
Artificial IntelligenceFacial Recognition SoftwareScience and Technology

¿Qué pasa cuando la IA se equivoca?

Dos mujeres afectadas por los fallos de la inteligencia artificial, repunte de casos de covid y más para el martes.


La inteligencia artificial a veces “alucina”, es decir, inventa cosas. Y estos errores pueden ser simplemente decepcionantes o, por el contrario, tener consecuencias devastadoras para algunas personas.

Marietje Schaake, una política holandesa experta en tecnología que ha sido integrante del Parlamento Europeo, fue erróneamente calificada como “terrorista” por BlenderBot 3, un robot de conversación originado en un proyecto de investigación de Meta, la empresa dueña de Facebook y WhatsApp.

Se sabe que las herramientas impulsadas por la IA han producido fallos legales falsos (que afectaron un caso real en la corte), generado imágenes pseudohistóricas que causan confusión y también han escrito artículos científicos simulados.

“A menudo, el daño es mínimo y se trata de unos deslices alucinatorios fácilmente refutables”, escribió la reportera de tecnología Tiffany Hsu en este artículo. “Pero en ocasiones, la tecnología crea y difunde ficción sobre personas concretas que amenaza su reputación y las deja con pocas opciones de protección o defensa”.

A veces estos errores inducidos por la IA tienen impactos más graves en la vida real. En febrero, Porcha Woodruff, una estudiante de enfermería en Detroit, fue arrestada y esposada en su domicilio durante un operativo policial. A Woodruff se le acusaba —de manera errónea— de atraco y robo de un auto. Las autoridades tenían un video de la mujer responsable de los delitos y usaron una herramienta de reconocimiento facial para identificarla.

(Ya hemos reportado que en el Reino Unido los negocios utilizan tecnología de reconocimiento facial que usa IA para prohibir la entrada a sus establecimientos a personas que supuestamente tienen antecedentes de robo).

“Tienes una herramienta muy poderosa que, si busca suficientes rostros, siempre mostrará individuos que se parecen a la persona en la imagen de las cámaras de vigilancia”, explicó Gary Wells, profesor de psicología que ha estudiado la confiabilidad de las identificaciones hechas por testigos oculares. Wells comentó que incluso si una persona con aspecto similar es inocente, un testigo ocular al que se le pide hacer la misma comparación es propenso a repetir el error cometido por la computadora.

Y, más allá de estas equivocaciones, la inteligencia artificial también puede emplearse con fines maliciosos: se clonan audios para extorsionar a las personas, se crean imágenes pornográficas de deepfake —como se le conoce a los montajes ultrarrealistas— para simular que una persona participa en situaciones sexuales y se orquestan campañas enteras de desinformación para impulsar agendas encubiertas.

A menudo, no hay muchas opciones para que las personas afectadas puedan defenderse. En el caso de Schaake, la exparlamentaria, decidió no demandar a Meta. Otras personas que intentan defenderse por la vía legal encuentran que es casi imposible que sus atacantes comparezcan ante las autoridades debido a los vacíos legales y la falta de regulación al respecto.

En el caso de Woodruff, que enfrentaba la posibilidad de ir a prisión, ella estaba embarazada de ocho meses cuando la arrestaron, algo que al final le ayudó a comprobar su inocencia. Pero dice que el error afectó su salud, perjudicó su reputación con los vecinos, que atestiguaron su arresto, y le causó estrés psicológico.

“Da miedo. Estoy preocupado. Es común que una persona se parezca a alguien más”, dijo Ivan L. Land, el abogado de Woodruff, subrayando la importancia del criterio humano. “El reconocimiento facial tan solo es una herramienta de investigación. Si identifica a alguien, deben hacer su trabajo e investigar más. Conversen con la persona”.

P. D.: Si has experimentado con la IA y has encontrado errores, tal vez te interese este artículo de Brian X. Chen, columnista de tecnología del Times, que ofrece consejos para obtener mejores resultados. (¿Tienes tus propias estrategias? Participa en los comentarios).


Si alguien te reenvió este correo, puedes hacer clic aquí para recibirlo tres veces por semana.


Enlace a la fuente

Notas relacionadas

¿Qué nos depara el futuro?

NY Report News

El estudio de los virus puede ser más seguro

NY Report News

¿Los chatbots mienten? Tú podrías ser la causa

NY Report News