Hace solo unas horas, te informamos cómo Tom Hanks tuvo que advertir a sus seguidores que una reciente campaña publicitaria incluyéndolo a él realmente había sido generada por inteligencia artificial, sin su consentimiento. Y ahora, a Mr. Beast le pasó lo mismo.
Por medio de redes sociales, Jimmy Donaldson, mejor conocido como Mr. Beast y el youutuber más popular del mundo, advirtió que también ha sido víctima de un video deepfake generado por IA. En el video, que circuló por TikTok, se ve al personaje promocionando una rifa de 100,000 iPhones 15 al simplemente donar $2 USD. En primera instancia, el video sí parece real, pues la voz y la boca se mueven al unísono y hay logos involucrados. Sin embargo, al analizarlo un poco más, se nota que la voz está un poco distorsionada y lo que dice no concuerda mucho con la expresión del resto de su cara.
Lots of people are getting this deepfake scam ad of me… are social media platforms ready to handle the rise of AI deepfakes? This is a serious problem pic.twitter.com/llkhxswQSw
— MrBeast (@MrBeast) October 3, 2023
TikTok retiró el anuncio y suspendió la cuenta asociada con él debido a violaciones de políticas, ya que prohíbe "medios sintéticos que contengan la semejanza (visual o auditiva) de una persona real" y bloquea anuncios que infrinjan derechos de propiedad intelectual. Obviamente, los anunciantes deben asegurarse de obtener el consentimiento de figuras públicas para usar medios sintéticos de ellas en anuncios. Sin embargo, no se sabe exactamente cuánta gente habrá caído en esta estafa, pensando que el verdadero Mr. Beast sí estaba promocionando esos teléfonos.
En los últimos meses, a medida que ha avanzado la inteligencia artificial, cada vez más figuras públicas han sido blancos de estos engaños, pues su imagen y semejanza es utilizada sin su permiso para engañar gente. Por eso, en su tweet, Mr. Beast apropiadamente se plantea la pregunta de si estarán preparadas las redes sociales para hacer frente al aumento de los deepfakes generados por IA, ya que es un grave problema. Y por lo que hemos visto, parece que la respuesta es que no.
¿Qué te parece esta noticia? ¡Déjanos tus comentarios!
Deja tu comentario