La plataforma de vídeo en 'streaming' ve en la IA una "herramienta poderosa" que puede ayudar a impulsar la creatividad, y por ello no prohibe su uso. Pero sabe que también se usa para dañar a las personas, sobre todo con los contenidos generados que replican la imagen y la voz de manera realista, lo que se conoce como 'deepfake'.
En este escenario, considera que "las plataformas tienen la responsabilidad de abordar estos desafíos de forma proactiva" y por ello, además, de crear herramientas de control y lanzar un sistema de privacidad que aborde la gestión del contenido sintético, también creen que es importante apoyar los proyectos "que abordan lagunas legales" en torno a este tipo de contenidos.
En Estados Unidos, Google ya apoya TAKE IT DOWN Act, que busca dotar de herramientas a las víctimas de "imágenes explícitas no consensuadas", como los 'deepfakes' pornográficos, para que puedan combatir el daño generado; incluye penas para quienes difunden conscientemente este material y obliga a las plataformas digitales a eliminarlo.
Ahora, YouTube ha anunciado su apoyo a Ley NO FAKES Act, al considerar que "se centra en la mejor manera de equilibrar la protección con la innovación: otorgando a las personas la facultad de notificar a las plataformas sobre las imágenes generadas por IA que consideren que deben eliminarse", como explica en su blog oficial.
La compañía defiende que la notificación es "fundamental" porque ayuda a las plataformas "distinguir entre contenido autorizado y falsificaciones dañinas" con el fin de tomar decisiones informadas.
La ley, presentada por por los senadores Chris Coons (demócrata por Delaware) y Marsha Blackburn (republicana por Tennessee), pretende abordar los daños asociados con las réplicas digitales no autorizadas, que pueden, además, utilizarse para engañar o tergiversar hechos de la realidad.
Tu opinión enriquece este artículo: