El tiempo en: Cádiz
Publicidad Ai
Publicidad Ai

Sevilla

El centro europeo de supervisión de tecnológicas echa a andar en Sevilla

El ECAT ha sido creado la Comisión Europea para controlar que grandes tecnológicas como Twitter, Amazon o Google no muestren contenido ilegal a los usuarios

Publicidad AiPublicidad Ai
Publicidad Ai
Publicidad Ai
Publicidad AiPublicidad AiPublicidad Ai Publicidad Ai

El acto inaugural del ECAT.

El acto inaugural del ECAT.

El acto inaugural del ECAT.

El Centro Europeo para la Transparencia Algorítmica (ECAT), el instituto de investigación que ha creado la Comisión Europea para controlar que grandes tecnológicas como Twitter, Amazon o Google no muestren contenido ilegal a los usuarios, ha sido inaugurado en Sevilla.


Este centro, que buscará abrir la "caja de pandora" de los algoritmos, ha celebrado su puesta de largo este martes, a pesar de que ya comenzó a funcionar el 1 de enero de este año, tal y como ha señalado a EFE Carlos Torrecillas Salinas, jefe de la Unidad de Economía Digital del Joint Research Centre (JRC), centro de investigación europeo del que depende directamente el ECAT.

El ECAT va a contar con tres líneas principales de acción: evaluar los sistemas algorítmicos de los servicios en red más populares -Twiter, Instagram o Tik Tok, entre otras-, clarificar los "riesgos sistémicos" de esos algoritmos y sus efectos a largo plazo de la inteligencia artificial en la sociedad, y actuar como "facilitador" a la comunidad de desarrolladores.

La "multidisciplinariedad", ha dicho Torrecillas, ha sido la clave a la hora de formar un equipo que cuenta en su mayoría con ingenieros informáticos, pero también con científicos sociales, ya que la inteligencia artificial "no es solo una cuestión técnica, hay que entender el impacto que esta tecnología tiene la sociedad".

Unas 40 personas, de las cuales aproximadamente la mitad ya se encuentran trabajando en la capital de Andalucía, y el resto se espera, lleguen a principios de este verano.

HACER ILEGAL ONLINE LO QUE YA LO ES EN EL MUNDO REAL

El objetivo de este centro, que se encuentra enmarcado en la Ley de Servicios Digitales (LSD), una ley de aplicación europea única en el mundo y gracias a la cual se pretende garantizar que lo que es ilegal en el mundo real lo sea también en el mundo online, así como luchar contra las desigualdades en materia de género, raza o sexo.

Y es que muchos de estos algoritmos tienen un sesgo racista o sexista, según ha explicado Krishna Gumadi, jefe del Laboratorio Europeo de Aprendizaje y Sistemas Inteligentes (ELLIS).

El investigador ha sostenido que existen estudios que han demostrado que en páginas de empleo, hay ciertos prejuicios implícitos que dan prioridad a los hombres a ciertos puestos de trabajo por encima de las mujeres, o que en plataformas como Tik Tok o Instagram existen algoritmos que favorecen "comportamientos adictivos" en adolescentes.

También ha puesto el foco en los prejuicios existentes en algunas herramientas policiales en Estados Unidos, o en los modelos de lenguaje que utilizan algunas plataformas para traducir en idiomas con pronombres de género algunas profesiones -enfermera o director de banco-.

"Vivimos en una sociedad mediada por la computación, en la que los algoritmos vigilan lo que hacemos, modelan nuestro discurso social e incluso influyen en el sentido de nuestro voto", ha sostenido.

"La investigación es muy complicada porque la transparencia algorítmica va más allá de la transparencia de datos", ha apuntado Gumadi, que lleva trabajando en esta materia durante el último lustro.

SISTEMAS TÉCNICOS "MUY COMPLEJOS"

El principal inconveniente a la hora de descifrar esas "cajas negras" que conforman los algoritmos es la complejidad de los sistemas técnicos de los mismos, tal y como ha explicado Rumman Chowdhury, directora de Parity Consulting y miembro responsable de IA en el Berkman Klein Center for Internet & Society de la Universidad de Harvard.

Chowdhury ha sostenido que analizar estos sistemas va a requerir "mucha innovación y creatividad" y que esto va a suponer que aparezca un "nuevo paradigma" en el que se va a exigir a las plataformas responsabilidad a la hora de hacer "autoevaluaciones" que serán la materia prima con la que trabaje el ECAT desde Sevilla.

Esta legislación, ha explicado, a pesar de que cuenta con un ámbito de aplicación europeo, busca que su alcance sea global "en unos años", ya que las plataformas que se busca supervisar "operan en todo el mundo", por lo que se prevé que esas actuaciones que tomen en consideración en materia de transparencia algorítmica lleguen a medio plazo a todo el mundo.

Un hito tecnológico, ha expresado Mikel Landabaso, alto funcionario de la Unión Europea, "único en el mundo" con el que se pretende "controlar y abrir la caja negra de los algoritmos" y "crear un espacio en línea seguro para la inteligencia artificial basado en el ser humano.

TE RECOMENDAMOS

ÚNETE A NUESTRO BOLETÍN