En un mundo donde la inteligencia artificial (IA) juega un papel cada vez más prominente, el contenido fraudulento generado por la IA se ha convertido en una preocupación creciente. Sin embargo, las principales empresas tecnológicas están tomando medidas para abordar este problema. 

De esta manera, OpenAI, Microsoft, Google, Meta y Amazon se han unido en un esfuerzo conjunto para combatir los deepfakes y otros contenidos creados por IA. De acuerdo con Vanguardia, los  deepfakes —acrónimo de deep (profundo) y fake(engaño)—, son en esencia contenido multimedia elaborado mediante algoritmos de aprendizaje profundo, que logran suplantar el rostro o la voz de una persona con un resultado hiperrealista.

Una solución conjunta contra el contenido fraudulento IA

Las mencionadas compañías se reunieron con el presidente de los Estados Unidos, Joe Biden, para presentar una solución definitiva para identificar los deepfakes y contenido generado por inteligencia artificial. Así, la propuesta principal es el uso de marcas de agua en todo el contenido creado por plataformas como ChatGPT, MidJourney, Stable Diffusion, Google Bard y el Chat de Bing. 

Esta marca permitirá identificar rápidamente su origen y determinar qué IA lo generó.

Medidas adicionales para garantizar la seguridad del contenido generado por IA

Controles internos y externos

Además de la implementación de marcas de agua, las compañías han acordado someterse a controles internos y externos realizados por expertos en seguridad independientes. Estos controles se llevarán a cabo antes de lanzar una nueva IA o una versión actualizada de una inteligencia artificial generativa, garantizando así la seguridad y confiabilidad de estas herramientas.

Colaboración y transparencia con gobiernos y expertos

Estas empresas líderes en tecnología también se comprometen a compartir información sobre el funcionamiento de sus IAs con gobiernos, expertos y académicos. Esta colaboración tiene como objetivo identificar posibles riesgos de seguridad y trabajar conjuntamente para abordarlos.

Normativas en temas delicados

Las Big Techs implementarán normativas especiales en áreas sensibles relacionadas con la IA. Estas incluyen el desarrollo de armas biológicas, químicas o radiológicas utilizando IA, herramientas de ciberdelincuentes, control físico de máquinas y dispositivos, discriminación racial y de género, y la posibilidad de autorreplicación de una IA.

La unión de las Big Techs para combatir el contenido fraudulento generado por IA demuestra la importancia de abordar los desafíos éticos y de seguridad que presenta la inteligencia artificial. 

A medida que la tecnología avanza, es esencial que la seguridad y ética sobre el tema evolucione a la par, para garantizar un futuro digital, seguro y confiable.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí