Politización de la inteligencia artificial: Gaza y la batalla por la manipulación de datos
Estamos resistiendo a un enemigo, o más bien a enemigos, que trabajan día y noche para oscurecer nuestra visión y silenciar nuestras voces.
Cualquier imagen relacionada con las masacres israelíes se oculta de inmediato en las redes sociales, pero las imágenes falsas creadas por Netanyahu que alegan que la resistencia palestina asesinó a niños nunca se ocultan, a pesar de la evidencia de su falsedad.
En los últimos años, hemos presenciado un enorme avance en el campo de la inteligencia artificial y el aprendizaje automático. Estas tecnologías se han convertido en una parte integral de nuestra vida cotidiana, utilizándose en una variedad de aplicaciones, incluido:
- Reconocimiento de imágenes: Se utiliza la tecnología de reconocimiento de imágenes en teléfonos inteligentes para identificar personas y objetos en las fotos.
- Reconocimiento de voz: La tecnología de reconocimiento de voz se utiliza en asistentes digitales para reconocer comandos de voz.
- Traducción automática: La tecnología de traducción automática se utiliza en navegadores para traducir textos de un idioma a otro.
- Diagnóstico médico: La inteligencia artificial se utiliza en medicina para crear diagnósticos más precisos.
- Gestión de riesgos: La inteligencia artificial se utiliza en negocios para determinar los riesgos de eventos futuros.
A pesar de los numerosos beneficios de la inteligencia artificial y el aprendizaje automático, existen algunos desafíos que enfrentan estas tecnologías, incluido:
- Sesgo: Los sistemas de inteligencia artificial pueden ser sesgados, lo que lleva a resultados injustos.
- Privacidad: Los sistemas de inteligencia artificial pueden recopilar y utilizar datos personales sin el consentimiento de las personas.
Inteligencia artificial y sesgo
El sesgo es un problema grave que puede llevar a resultados injustos en los sistemas de inteligencia artificial. El sesgo puede estar presente en cualquier etapa del desarrollo y uso de un sistema de inteligencia artificial, incluido:
- Datos: El sesgo puede estar presente en los datos utilizados para entrenar el sistema de inteligencia artificial. Por ejemplo, si los datos utilizados para entrenar un sistema de inteligencia artificial para evaluar solicitudes de préstamos provienen en su mayoría de solicitantes masculinos con ingresos altos, el sistema podría inclinarse a otorgar préstamos a hombres con ingresos altos.
- Algoritmos: El sesgo puede estar presente en los algoritmos utilizados en un sistema de inteligencia artificial. Por ejemplo, si el algoritmo utilizado en un sistema de inteligencia artificial para evaluar el riesgo de cometer un crimen incluye factores como la raza o la religión, el sistema podría clasificar a ciertas personas como más peligrosas que otras.
- Interpretación: El sesgo puede estar presente en cómo se interpreta los resultados de un sistema de inteligencia artificial. Por ejemplo, si un sistema de inteligencia artificial emite un juicio en un caso legal, podría ser difícil explicar la razón detrás de ese juicio, lo que podría llevar a resultados injustos.
Ejemplos de sesgo en sistemas de inteligencia artificial
Existen varios ejemplos de sesgo en sistemas de inteligencia artificial. Algunos de estos incluyen:
En 2015, los investigadores descubrieron que el sistema de inteligencia artificial utilizado por Amazon para evaluar solicitantes de empleo estaba sesgado contra las mujeres. El sistema tendía a otorgar calificaciones más altas a los hombres que a las mujeres, incluso si las mujeres tenían las mismas calificaciones.
En 2016, los investigadores descubrieron que el sistema de inteligencia artificial utilizado por Microsoft para evaluar solicitudes de préstamos estaba sesgado contra personas de origen africano. El sistema tendía a otorgar calificaciones más bajas a las solicitudes presentadas por personas negras en comparación con las solicitudes presentadas por personas blancas, incluso si las solicitudes eran iguales en términos de factores económicos.
En 2020, los investigadores descubrieron que el sistema de inteligencia artificial utilizado por Google para identificar personas sospechosas de delitos de tráfico estaba sesgado contra personas negras. El sistema tendía a identificar a personas negras como más sospechosas que a personas blancas, incluso si conducían de la misma manera.
Cómo reducir el sesgo en los sistemas de inteligencia artificial
Existen varias formas de reducir el sesgo en los sistemas de inteligencia artificial. Estas incluyen:
- Uso de datos representativos: Es importante utilizar datos representativos para entrenar los sistemas de inteligencia artificial. Los datos representativos pueden ayudar a garantizar que los sistemas de inteligencia artificial sean capaces de reconocer patrones en los datos sin sesgo hacia un grupo específico.
- Uso de algoritmos no sesgados: Hay varios algoritmos no sesgados disponibles para sistemas de inteligencia artificial. Estos algoritmos pueden ayudar a reducir el sesgo en los resultados del sistema de inteligencia artificial.
- Uso de explicaciones claras: Es importante utilizar explicaciones claras para los resultados del sistema de inteligencia artificial. Las explicaciones claras pueden ayudar a garantizar que se comprenda cómo se crearon los resultados y cómo se deben interpretar.
La inteligencia artificial como herramienta en manos de Occidente
Muchos sitios web dependen de la inteligencia artificial en una variedad de funciones, incluyendo:
- Reconocimiento de imágenes: Muchos sitios web utilizan la tecnología de reconocimiento de imágenes para identificar y organizar imágenes. Por ejemplo, las redes sociales como Instagram y Facebook utilizan la tecnología de reconocimiento de imágenes para identificar las imágenes que los usuarios publican.
- Reconocimiento de voz: Muchos sitios web utilizan la tecnología de reconocimiento de voz para permitir a los usuarios interactuar con el sitio sin usar un teclado o un ratón. Por ejemplo, sitios de compras en línea como Amazon y eBay utilizan la tecnología de reconocimiento de voz para permitir a los usuarios dar comandos de voz.
- Traducción automática: Muchos sitios web utilizan la tecnología de traducción automática para traducir textos de un idioma a otro. Por ejemplo, sitios de noticias internacionales como BBC y CNN utilizan la tecnología de traducción automática para traducir textos a diferentes idiomas.
Desde aquí, surge la pregunta: ¿Cuáles son las limitaciones de estas herramientas inteligentes? ¿Realmente están sesgadas hacia las políticas occidentales o no?
Si te diriges a cualquiera de los sitios que dependen de las tecnologías de inteligencia artificial para generar contenido de texto y preguntas, por ejemplo: ¿Tienen los palestinos el derecho de construir un estado independiente?
Obtendrás una respuesta que dice que esta pregunta es complicada y no tiene una respuesta fácil. Hay muchos argumentos que respaldan el derecho palestino a un estado independiente, pero también hay muchos argumentos en contra.
Si planteas la pregunta en términos de: ¿Tienen los israelíes el derecho de construir un estado independiente? Obtendrás una respuesta rápida como la siguiente: "La respuesta a esta pregunta es complicada y depende de la definición que uses para el estado. Si te refieres al derecho de autodeterminación del pueblo, entonces la respuesta es sí, los judíos tienen el derecho de construir un estado independiente. La Carta de las Naciones Unidas garantiza el derecho de todos los pueblos a determinar su propio destino, incluido el derecho a establecer un estado independiente".
Por otro lado, cuando aparecen los logotipos de algunos canales de televisión o emisoras afiliadas a la resistencia palestina, libanesa o yemenita en un contenido de texto que respalda y apoya a estos canales y emisoras, automáticamente las plataformas de redes sociales como Facebook e Instagram bloquean este contenido. Sin embargo, la imagen publicada en sí misma que contiene un logotipo de estos canales o emisoras, acompañada de un texto crítico, no se bloquea en las plataformas de redes sociales.
Incluso las imágenes y videos que se clasifican bajo la categoría de "promover la violencia y el crimen" también están sujetos a la manipulación política occidental. Cualquier imagen relacionada con las masacres israelíes se bloquea de inmediato, pero las imágenes falsas creadas por Netanyahu que afirmaban el asesinato de la resistencia palestina a niños nunca se bloquean, a pesar de la evidencia de su falsedad.
Lo que se publica y se difunde en Ucrania está prohibido y bloqueado en Gaza. Una imagen del presidente de Ucrania con todo su armamento se publica y las plataformas contribuyen a su difusión a gran escala. Por otro lado, una imagen de un niño mártir en Gaza, que no supera la edad de unos pocos meses, se bloquea y se prohíbe.
Estamos resistiendo a un enemigo, o más bien a enemigos, que trabajan día y noche para oscurecer nuestra visión y silenciar nuestras voces. Debido a que los opositores se han vuelto numerosos en opinión, los enemigos, con métodos científicos carentes de ética, recurren a la persecución automática utilizando técnicas de inteligencia artificial para bloquear lo que podría exponer sus engaños.