Historia de éxito: proyecto ciudadano “Stop (5G) – Stay Connected but Protected”

Con los avances de las nuevas tecnologías cada vez dependemos más de ella. Pero, ¿cuáles son sus riesgos? La iniciativa ciudadana “Stop (5G) – Stay Connected but Protected” elaborada por habitantes europeos pretende cuidar nuestros derechos ante este mundo digital.

¿Qué busca la iniciativa ciudadana?

Básicamente son 3 cosas lo que solicitan:

  • Evaluar el impacto de los efectos de la 5G en la protección de los datos personales (Propuesta 19)
  • Eliminar la discriminación y las violaciones a los derechos digitales (Propuesta 21)
  • Informar a los ciudadanos si sus datos se tratan por procedimientos automatizados como la inteligencia digital (Propuesta 22)

Algunos casos que han ocurrido en la vida real 

¿Sabías que en Amazon se rechazaron CV de mujeres porque el algoritmo había aprendido a favorecer a los hombres? O el hecho de que Google arroja más fotos de hombres cuando se busca el término “CEO”.

La inteligencia artificial (IA) y los algoritmos se basan en datos para aprender sobre nuestro entorno. Intentan inferir tendencias, relaciones entre conceptos y parámetros importantes para ayudarles a seleccionar la mejor alternativa en futuras solicitudes. Al utilizar nuestros datos para aprender, los sistemas de IA también reciben nuestros sesgos presentes en la sociedad. Esto provoca que las tecnologías inteligentes no sean una cuestión meramente tecnológica, sino también una cuestión social y ética.  

Si esto es complicado, lee lo siguiente: Se desarrollan 2 algoritmos. Uno detecta correctamente una enfermedad con una certeza del 80% en individuos blancos. Pero cuando se trata de personas de color, lo hace en un 60%. Y un segundo algoritmo identifica la enfermedad con un nivel de exactitud del 60%, sin importar el tono de piel. Si decidimos con base en la igualdad, ¿se debería tomar el peor algoritmo? Es aquí donde la ética entra en juego.

La responsabilidad no siempre es tan clara

Con los sistemas inteligentes, los ingenieros no pueden predecir lo que aprenderán ni como se comportarán. Esto sucede hasta que el software entra en acción y poco a poco va incorporando la información en su sistema de aprendizaje. Ante este escenario, es difícil identificar al responsable de cualquier funcionamiento que no es el adecuado. Sobre todo en temas éticos, donde la opinión entre una empresa a otra puede ser radicalmente opuesta.

Nadie sabe nadie supo

Este movimiento se concentra en que las personas merecen conocer el motivo por el cual se tomaron ciertas decisiones, qué datos recogen los sistemas de IA y cómo son utilizados. Y aunque las empresas estén dispuestas a compartir esa información, muchos sistemas inteligentes son unas verdaderas cajas negras: incorporan muchos datos y la salida estará determinada por las propiedades de dicha información.

Quizá sería mejor el conocer qué tipo de cosas ha aprendido para verificar que los resultados estarán dentro de los parámetros esperados por los ingenieros. Es por ello que la comunidad científica ha solicitado enfoques más comprensibles para el aprendizaje automático.

En resumen, las nuevas tecnologías, sobre todo las autodidactas, cada vez son más populares en nuestra sociedad. Sin embargo, aún no hemos sido conscientes de las consecuencias sociales que esto puede traer en los próximos años.

El proyecto “Stay Connected but Protected” pide una regulación más estricta para proteger los derechos de los ciudadanos de las violaciones a la privacidad y discriminación. Este es un ejemplo de cómo los colectivos ciudadanos se organizan para trabajan en beneficio de su comunidad.


Fuente:

https://europa.eu/citizens-initiative-forum/blog/europeans-safe-connections-call-stronger-regulation-artificial-intelligence-decision-making_es

¡Comparte, por el bien común en Zibatá!

Deja un comentario