Estados Unidos advierte a las tecnológicas sobre la responsabilidad moral en el desarrollo de la IA

"El sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos", dijo Harris.

Por Canal26

Jueves 4 de Mayo de 2023 - 16:51

Open IA; Inteligencia artificial. Foto: Reuters.Open IA; Inteligencia artificial. Foto: Reuters.

La vicepresidenta de Estados Unidos, Kamala Harris, convocó este jueves a los líderes de las cuatro firmas estadounidenses al frente del desarrollo de la inteligencia artificial (IA) para recordarles su responsabilidad moral a la hora de asegurar la seguridad de los productos que usen esa tecnología.

"El sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos. Y cada empresa debe cumplir con las leyes existentes para proteger al pueblo estadounidense", dijo en un comunicado.

Harris se pronunció tras haber recibido en la Casa Blanca a los consejeros delegados de Microsoft, Satya Nadella; Alphabet y Google, Sundar Pichai; Anthropic, Dario Amodei, y OpenAI, Sam Altman.

Gemini; Google; inteligencia artificial. Foto: Reuters.

Te puede interesar:

Los mejores trucos para usar correctamente Gemini, la inteligencia artificial de Google

"Es una de las tecnologías más poderosas de la actualidad"

"Los avances en tecnología siempre han presentado oportunidades y riesgos, y la IA no es diferente. Es una de las tecnologías más poderosas de la actualidad, con el potencial de mejorar la vida de las personas y abordar algunos de los mayores desafíos de la sociedad", recalcó la vicepresidenta.

Al mismo tiempo, según destacó, esa tecnología "tiene el potencial de aumentar drásticamente las amenazas a la seguridad y la protección, infringir los derechos civiles y la privacidad, y erosionar la confianza pública y la fe en la democracia".

La portavoz de la Casa Blanca, Karine Jean-Pierre, añadió en una conferencia de prensa que la conversación con los cuatro directivos fue "franca y honesta", e incidió en que es necesario que las plataformas que desarrollan la IA sean "más transparentes" sobre sus sistemas tanto con los políticos como con el público.

Inteligencia artificial. Foto: Reuters.Foto: Reuters.

Antes de la cita, la Administración de Joe Biden ya había adelantado que las grandes empresas de IA han aceptado someterse a una evaluación pública de sus sistemas durante el evento de "hackers" DEF CON 31, que se celebrará en Las Vegas a comienzos de agosto.

Miles de participantes analizarán en esa convención si estos sistemas están alineados con la Carta de Derechos de la IA que ha propuesto el Gobierno estadounidense y que incluye principios como la privacidad de los datos de los usuarios o la protección contra los algoritmos discriminatorios.

Inteligencia artificial. Imagen cedida.

Te puede interesar:

La IA en la educación, el entretenimiento y la economía

"Innovación responsable"

La cita con los representantes de Microsoft, Anthropic, OpenAI y Google y Alphabet y el compromiso de las tecnológicas se enmarca en nuevos anuncios por parte del Ejecutivo estadounidense para mitigar los riesgos de esa tecnología.

En esa línea, Estados Unidos avanzó este jueves que invertirá 140 millones de dólares para establecer siete nuevos institutos de investigación en inteligencia artificial que impulsarán la innovación responsable y asegurarán que los avances sirven al bien común, lo que elevará a 25 la cifra total en el país de ese tipo de centros.

El Gobierno emitirá también nuevas directrices sobre el uso de la IA por parte de las agencias gubernamentales y federales, para asegurar que respetan los derechos y la seguridad de los ciudadanos estadounidenses. 

Notas relacionadas