Buscar
Cerrar este cuadro de búsqueda.

Tecnología

¿Cómo debería regularse la IA? Europa y EEUU dan el primer paso para una normativa conjunta

Por María Nogales

Margrethe Vestager (UE): “La democracia debe demostrar ser tan rápida como la tecnología”

Numerosas empresas comienzan a limitar o incluso prohibir la utilización de determinadas herramientas de inteligencia artificial (IA), tales como Chat GPT. Algunas como Apple, Samsung, Telefónica, BBVA o Redeia (Red Eléctrica) han decidido poner límites a la utilización de estos chatbots de IA por el miedo a la filtración de los datos internos de las compañías e incluso el Garante para la Protección de Datos Personales (GPDP) de Italia prohibió en marzo, con efecto inmediato, el uso de Chat GPT por una supuesta recopilación ilícita de datos personales.

En este contexto y ante la creciente utilización de estas herramientas de IA en los puestos de trabajo, la Unión Europea y Estados Unidos han anunciado el primer “código de conducta” voluntario sobre inteligencia artificial para abordar las preocupaciones que comparten la industria, las ONG y los expertos en tecnología sobre la irrupción de esta tecnología revolucionaria.

Este es uno de los principales acuerdos de la reunión ministerial que mantuvieron el miércoles pasado en la ciudad sueca de Lulea representantes de ambos socios internacionales y en la que participaron el vicepresidente económico y comisario europeo de comercio, Valdis Dombrovskis; la comisaria europea de Competencia, Margrethe Vestager; el secretario de Estado de Estados Unidos, Antony Blinken; la secretaria de Comercio de EEUU, Gina Raimondo y la representante comercial de EEUU, Katherine Tai.

Adelantarse a la inteligencia artificial

Así, la comisaria Vestager ha reconocido que están trabajando en un código de conducta momentáneo que pueda aplicarse desde ya y se anticipe al avance de la inteligencia artificial, que prevén que llegará en las próximas semanas, a lo que ha añadido que “la democracia debe demostrar ser tan rápida como la tecnología”, consciente de que las primeras legislaciones al respecto no llegarán, en el mejor de los casos, hasta dentro de tres años, según confirma Europa Press.

Algo en lo que también coincide Blinken, quien enfatizó en el “desfase” existente entre la aparición de las nuevas tecnologías y el tiempo que tardan los gobiernos y las instituciones públicas en averiguar la forma de regularlas: “Sentimos la feroz urgencia de hacerlo ahora, sobre todo, para que podamos mitigar algunos de los posibles inconvenientes y amplificar las ventajas de esta extraordinaria tecnología”.

La idea, por tanto, es tener una propuesta final sobre la que las empresas del sector, dominado por gigantes estadounidenses como Microsoft, Meta o Google, puedan comprometerse voluntariamente, tal y como dijo Vestager y recoge AFP. Todo ello, en presencia de Sam Altman, el fundador del robot conversacional Chat GPT, que ha revolucionado la inteligencia artificial.

Por ello, los encargados de elaborar esta regulación contarán con la opinión de los principales exponentes en la industria, “un gancho que servirá para atraer su firma de compromiso voluntario”, tal y como indica France24.

Así, ambas potencias afirmaron en una declaración final que “la Unión Europea y Estados Unidos comparten el punto de vista común de que las tecnologías de inteligencia artificial conllevan grandes oportunidades, pero también presentan riesgos para nuestras sociedades”.

Los expertos piden pausar el desarrollo de la IA

De igual forma, esta no es solo una preocupación de las administraciones. Recientemente, un grupo de expertos en inteligencia artificial y ejecutivos de la industria tecnológica, entre los que se encuentra Elon Musk, solicitaron en una carta abierta una pausa de seis meses en el desarrollo de sistemas más potentes que el recién lanzado GPT-4 de OpenAI debido a los peligros que puede generar para la sociedad y la humanidad, según recoge Reuters.

La carta, publicada por la organización sin ánimo de lucro 'Future of Life Institute', reclamaba esta pausa en el desarrollo de la IA avanzada hasta que se desarrollaran, aplicaran y auditaran por expertos independientes una serie de protocolos de seguridad compartidos para estos diseños.

"Los potentes sistemas de inteligencia artificial solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables", afirmaba.

OpenAI pide una regulación para ChatGPT

Por otro lado, el CEO de OpenAI, Sam Altman, en comparecencia que hizo durante su visita a España en la IE University, consideró que la regulación para los pequeños modelos de lenguaje impulsados por IA "no tienen sentido" y apuesta por regular los modelos grandes como, en este caso, ChatGPT de OpenAI, porque son "los que realmente pueden hacer daño".

De este modo, el CEO de OpenAI también remarcó que la regulación es "muy importante", pero también puso énfasis en que sobrerregular "no es bueno", ya que, en el caso de las pequeñas compañías de modelos de lenguajes, cortaría su capacidad de innovación y creación.

"No pensamos que la regulación para modelos pequeños tenga sentido", ha observado Altman, al tiempo que ha indicado que la regulación tiene que estar diseñada para los modelos grandes, y prever que realmente "no podamos hacer daño en el mundo". Así, sugiere que se debe "dejar crecer" a los modelos pequeños y que lo lógico es centrar la atención de la regulación en los modelos grandes, ya que "somos los que podemos manejarlos".

Igualmente, el CEO de OpenAI ha remarcado la importancia de la privacidad y la preocupación que existe en torno a esta cuestión a todos los niveles. En este sentido, ha asegurado que desde la compañía continuarán "trabajando con otros gobiernos alrededor del mundo" para conseguir mejorar los modelos de lenguaje impulsados por IA y proteger la privacidad.

Microsoft reclama una “forma segura y responsable”

Por su parte, el presidente de Microsoft España, Alberto Granados, considera que la inteligencia artificial debe utilizarse de “forma segura y responsable” y ha abogado por garantizar un “marco de desarrollo ético” que contemple criterios de seguridad, privacidad, equidad, inclusión y transparencia.

Así lo indicó en su intervención en el encuentro “La Inteligencia Artificial, catalizador de la transformación de las organizaciones”, organizado por Esade. En este contexto, el directivo también explicó que los ciberataques han aumentado un 67% en los últimos cinco años y que 1.287 contraseñas son atacadas cada segundo.

"Desde Microsoft se analizan 65 billones de señales de amenaza cada día y se monitorizan más de 250 organizaciones de cibercriminales. Por ello, tenemos el objetivo de extender masivamente 'Security Copilot' como modelo de OpenAI para acelerar tareas y aplicaciones de seguridad que permitan identificar actividades maliciosas, tomar decisiones más informadas y mejorar el trabajo de los especialistas de ciberseguridad de cada compañía", ha señalado.

En ese sentido, ha indicado que los datos de los clientes de Microsoft no se utilizan para entrenar otros modelos de inteligencia artificial.

"Los datos de nuestros clientes son de nuestros clientes y no se utilizan para entrenar otros modelos de IA. Están protegidos de acuerdo con la regulación de privacidad", ha aseverado.

Únete a nuestra Newsletter

A través de nuestra Newsletter con Capital te hacemos llegar lo más importante que ocurre en el mundo de la #economía, los #negocios, las #empresas, etc… Desde las últimas noticias hasta un resumen con toda la información más relevante al final del día, con toda comodidad.