Mar. Abr 23rd, 2024
La regulación de la Inteligencia Artificial, a debate en el Club de Humanidades del Consejo Social de la ULPGC

Los expertos que participaron en el debate sobre círculo humanistaorganizado por Consejo Social de la ULPGC, coincidió en la necesidad de regular la inteligencia artificial. Este fue el tema del debate que incluyó las opiniones de mario hernandez tejeraCatedrático de Ciencias de la Computación e Inteligencia Artificial de la ULPGC; Inmaculada Perdomo Reyesprofesor del Área de Lógica y Filosofía de la Ciencia de la Universidad de La Laguna; Antonio Núñez OrdóñezCatedrático de Tecnología Electrónica de la ULPGC, e Javier Ercilla Garcíajuez del Juzgado de lo Social Número 10 de Las Palmas de Gran Canaria y experto en Nuevas Tecnologías.

La segunda sesión del Club de Humanidades abordó, desde diferentes puntos de vista, la ‘Reglamento de Inteligencia Artificial: Equilibrio entre la protección de derechos y libertades y el incentivo a la innovación tecnológica’tema de gran actualidad, que se analizó con las opiniones de diversos expertos relacionados con el ámbito de la docencia, la legislación jurídica y las Nuevas Tecnologías.

Antes del inicio del debate, celebrado en el SSala de Actas del Edificio de Humanidades de la ULPGCel presidente del Consejo Social, Ángel Tristán Pepe, agradeció a las autoridades académicas y al público presente por su asistencia. “El primer debate, sobre la Ley de Bienestar Animal, fue un tema de mucha actualidad, hoy tocaremos un tema que presenta enormes desafíos: la velocidad vertiginosa de los descubrimientos sobre la llamada Inteligencia Artificial”.

Tristán Pepe Destacó que la IA es “una herramienta que, como todo el mundo, puede servir para bien o para mal. Por eso hay que regularla, protegiendo los derechos por un lado y las ventajas de los descubrimientos científicos por otro, porque la IA suscita una doble sensación: esperanza y miedo y por eso también queríamos plantear este debate entre expertos del Actividades universitarias o profesionales de que se trate.

mario hernandez Centró su intervención en los riesgos inherentes a las creaciones tanto científicas como precientíficas «que han provocado cambios en nuestra relación con el mundo y han alterado las formas en que funcionan y se desarrollan las sociedades». Citó ejemplos como el control de incendios, el conocimiento de los metales o la máquina de vapor, conocimiento que dijo generó tecnologías disruptivas que cambiaron y avanzaron a la sociedad. «Se han desarrollado tecnologías disruptivas muy diferentes en los últimos dos siglos que tienen riesgos asociados gestionados de diferentes maneras». Y se refirió a tres casos: tecnología atómica, biotecnología y tecnología de inteligencia artificial.

En el primer caso relató cómo en 1939 Einstein y Szilard enviaron una carta al presidente Roosevelt para advertirle de los riesgos de la energía nuclear. “La carta fue enviada discretamente y el mundo no se dio cuenta hasta más tarde. Roosevelt creó una Comisión Científica para estudiar la situación que se convertiría en el Comité Asesor de Uranio y en 1942 se convertiría en el Proyecto Manhattan, que culminó con la fabricación de la bomba atómica. “Aquí ni los científicos ni los ciudadanos tienen nada que ver con la decisión que se toma”.

Leer también  Le conceden invalidez absoluta por depresión e intentos de suicidio

En el campo de la biotecnología, se refirió al desarrollo de técnicas de ADN recombinante en la década de 1970, que permitieron insertar el ADN de un ser vivo en otro. Esta tecnología generaba grandes expectativas, pero existían grandes riesgos de generar quimeras infecciosas muy peligrosas e incontrolables. Ante la falta de control sobre las decisiones de prueba, un grupo de científicos organizó el congreso Asilomar II, al que invitaron a juristas y periodistas para difundir los debates. “Se trataba de desarrollar protocolos de seguridad experimental y estándares básicos de experimentación abiertos a la sociedad para que no pasara lo que pasó en el Comité Asesor de Roosevelt” con una tecnología que podía ser potencialmente peligrosa.

Hablando de Tecnología de Inteligencia Artificial, el investigador se refirió a la carta abierta hecha pública, hace un mes, por un grupo de investigadores, inversores e industriales, para abrir un debate en la comunidad sobre la explotación descontrolada de los Grandes Modelos (LM) de la ‘ Post GPT-4 Artificial Intelligence, pidiendo una moratoria de seis meses en el desarrollo y experimentación libre y sin control de estas soluciones de IA que se aplican en muchos campos.

Hernández Tejera enumeró algunos de los riesgos de la explotación descontrolada de estos modelos que, al mismo tiempo, son muy potentes para el desarrollo de soluciones de Inteligencia Artificial y abren grandes expectativas de desarrollo de gran utilidad para la sociedad. “Los científicos abajo firmantes ya están exponiendo algunos de los que consideran riesgos: son sistemas que no han experimentado lo suficiente antes de ponerlos en producción; dando lugar a múltiples aplicaciones sin un control suficiente de sus efectos; Son capaces de manejar lenguaje con una calidad superior a la del humano promedio y es posible generar “fakes” con ellos: simulando identidades digitales falsas, fake news, canales de comunicación que emiten fake news, fake images, videos, películas y más. situaciones que surgirían de la imaginación humana”.

Sobre cómo podría abordarse el control para reducir los riesgos, Hernández Tejera señaló dos vías «que pueden ser excluyentes o complementarias»: por un lado, la autorregulación de la industria, «opción difícil, aunque no imposible, dado que es un sector en manos de muchas empresas, algunas de gran tamaño, con diversidad de enfoques estratégicos y un alto valor de monetización de algunos productos, y una regulación pública, «compleja, pero probablemente la más adecuada debido a la globalización, que implica la actuación de importantes actores como los gobiernos de Estados Unidos, la UE u otras grandes potencias”. Recordó que en EE.UU. ya hay una Comisión que está trabajando en ello y también se ha iniciado un trámite legislativo en este sentido en la UE. También sugirió que los legisladores deberían escuchar y considerar los puntos de vista de investigadores y tecnólogos expertos en este campo.

Leer también  Hacienda destinará 22 millones a la rehabilitación de edificios públicos

perdono inmaculada Explicó que la inteligencia artificial está presente “en innumerables herramientas tecnológicas que usamos a diario y observamos con asombro cómo se dan avances importantes a gran velocidad. Vivimos en una era tecnológica sin precedentes y disfrutamos de muchos de los servicios e instalaciones que nos brinda. Ante esta realidad, a su juicio, la sociedad debe reflexionar, de forma crítica e interdisciplinar, sobre las consecuencias y efectos indeseables de la innovación tecnológica, así como regular ética y jurídicamente sus prácticas.

Para el profesor de la ULL, la tecnología “no es buena o mala, según su uso, es defendible o no según los principios y valores que guían y rigen sus prácticas y objetivos preestablecidos, estos parámetros son aún más ciertos en el campo de la IA. La inteligencia artificial de autoaprendizaje basada en redes neuronales es capaz de hacer correlaciones e inferencias a partir de los millones de puntos de datos que utiliza (bases de datos, imágenes, resultados de interacciones humanas con smartphones, etc.), que refleja , como si fuera un espejo, la acumulación de rasgos y características humanas pero también los prejuicios y estereotipos que siguen estructurando nuestras sociedades”.

antonio nuñeztambién se refirió a las normas que están trabajando el Parlamento Europeo y la UE, tanto normativas positivas como prohibitivas, en particular la prohibición de la aplicación de IA en la vigilancia biométrica, en el reconocimiento de emociones, en actuaciones policiales potencialmente predictivas o discriminatorias.

Expuso las diferencias entre las normas específicas que se utilizan en la investigación científica, de las que dijo que “no hay que regular prácticamente nada”, y las generales como ChatGPT que introducen riesgos a gran escala para la población y es necesario regular “Lo más práctico es solicitar autorizaciones y licencias para su implantación, previa superación de pruebas de seguridad, transparencia, protección, limitación de prejuicios, no discriminación y neutralidad tecnológica. La UE está avanzando en esta regulación y trabajando con las licencias se está definiendo un marco de responsabilidades y sanciones”. Añadió que la normativa establece un equilibrio entre la protección de los derechos fundamentales y la seguridad jurídica de las personas, entidades y empresas, con la necesidad de seguir impulsando la innovación en Europa.

El catedrático de Tecnología Electrónica cree que la población y los medios “harían bien” en preocuparse por los efectos que la IA pueda tener en el empleo “porque serán muy graves. Los centros educativos pronto comenzarán a modificar sus planes de estudios para preparar a sus alumnos para las nuevas profesiones”.

A su juicio, el reglamento debe respetar un marco de convivencia que proteja los derechos de los más débiles, pero cree que es mejor adaptarse personalmente al cambio. En este sentido, subrayó que “hay que crear una cultura personal para no exponerse en exceso a los nuevos medios de la sociedad de la información, para no enseñar demasiado, hay que aprender a mantener una cierta privacidad, de lo contrario la IA sabrá demasiadas cosas.» de su perfil, y puede usarlo para propósitos que no queremos saber. Al mismo tiempo, necesita crear una cultura para saber cómo aprovechar las poderosas técnicas de IA para el trabajo personal. Aunque ya se utilizan en la investigación, hay mucho espacio para el desarrollo de la innovación, el surgimiento de nuevos negocios y profesiones, la IA profesional y también la capacidad de la IA para actuar como asistente en el trabajo de uno. .

Leer también  Antonio Morales anuncia un gobierno insular eficiente, moderno, firme, dialogante y centrado en la consolidación del modelo eco-insular - Digital Faro Canarias

Para finalizar, Antonio Núñez dijo que se debe confiar en la IA específica, en técnicas específicas y su ayuda en el trabajo o la investigación, pero se debe desconfiar de la IA general, “esa que tiende a ser vista como un oráculo infalible o con mucha autoridad cuando la población está mal informados. Necesitamos mantener un espíritu crítico y ser conscientes de los sesgos que son inherentes a la IA».

javier ercilla Ha explicado que la propuesta de la UE para regular la IA es «un paso importante para garantizar que se utilice de forma segura y responsable», pero también cree que es importante que esta regulación sea equilibrada «para proteger la seguridad y la bienestar de las personas y las sociedades, sin obstaculizar innecesariamente la investigación, el desarrollo y la innovación en IA.

En este sentido, Ercilla dijo que es fundamental que la regulación de la IA “se aplique de forma justa y equitativa y que proteja a las personas del uso potencialmente nocivo en el ámbito privado y de la vulnerabilidad socioeconómica”. El experto destacó la importancia de contar con una regulación, “que tenga un alcance global y que los sistemas de alto riesgo estén sujetos a requisitos regulatorios más estrictos”.

En su opinión y desde el punto de vista de la Administración de Justicia, cree que toda IA ​​que se utilice, como las que se utilizan en las Administraciones Públicas, debe ser transparente. “Debe facilitar la verificación del código y de los datos tomados para la capacitación, de manera que se garantice la publicidad de los procesos judiciales, así como la transparencia en los procesos de toma de decisiones públicas”.

Por Jose Luis Pastor Gomez

Jose Luis Pastor Gómez es un famoso periodista español. Nació el 5 de mayo de 1966 en Madrid, España. Tras finalizar sus estudios en la Universidad Complutense de Madrid, comenzó su carrera profesional como periodista en 1988. Ha trabajado para varios periódicos y revistas como El País, El Mundo y ABC. Además, ha colaborado en diferentes programas de radio y televisión. Su trabajo ha sido reconocido con varios premios, como el Premio Rey de España al Mérito Periodístico (2001) y el Premio Nacional de Periodismo (2002). En la actualidad, José Luis Pastor Gómez es miembro de la junta directiva de la Asociación Española de Editores de Periódicos (AEDE) y de la Asociación Internacional.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *