top of page

La polémica sobre las reglas de Facebook en torno a los videos falsos de Biden


Joe Biden
Joe Biden

En los últimos tiempos, Facebook ha estado en el centro de la controversia debido a sus políticas en relación con los videos falsos. Una de las situaciones más llamativas es la decisión de la compañía de no eliminar un video falso de Joe Biden que lo acusaba falsamente de ser un pedófilo. Esta decisión ha despertado un debate sobre las reglas de Facebook en cuanto a la moderación del contenido y cómo se aborda la desinformación en la plataforma.

El video falso de Joe Biden en Facebook


El video en cuestión mostraba imágenes manipuladas de Joe Biden colocando una calcomanía de "Voté" en el pecho de su nieta durante las elecciones intermedias de Estados Unidos en 2022. El video, que fue compartido en mayo de ese año, fue editado para hacer parecer que el presidente tocaba inapropiadamente a su nieta, mientras se reproducía música con letras ofensivas en segundo plano. Además, el video afirmaba falsamente que Biden era un pedófilo y que las personas que lo habían votado estaban mentalmente enfermas.

A pesar de la denuncia de un usuario, los moderadores de Facebook decidieron no eliminar el video. Esto generó una apelación por parte del usuario, quien llevó el caso ante el Comité de Supervisión de Meta (anteriormente conocido como Facebook). El Comité es un panel independiente de expertos reclutados por Meta para revisar las políticas de moderación de contenido.


Las políticas de Facebook sobre videos manipulados


En sus políticas, Facebook establece que los usuarios no deben publicar videos sintéticos generados utilizando inteligencia artificial o aprendizaje automático, conocidos como "deepfakes". Estos videos manipulados utilizan técnicas de IA para superponer contenido falso en videos reales, creando la ilusión de que son auténticos. Facebook también prohíbe el contenido que pueda inducir a error a una persona promedio haciéndola creer que alguien dijo palabras que nunca pronunció.

Sin embargo, el video falso de Biden no violaba ninguna de estas reglas, ya que no era un "deepfake" y no manipulaba las palabras del presidente. Por lo tanto, Facebook decidió permitir que el video permaneciera en línea. Esta decisión ha generado críticas y ha planteado interrogantes sobre la consistencia de las reglas de la plataforma y su capacidad para abordar la desinformación política.


El papel del Comité de Supervisión de Meta


Ante la controversia generada por la decisión de Facebook, el Comité de Supervisión de Meta decidió investigar las políticas de la compañía en relación con los videos manipulados. El panel de expertos seleccionó este caso para evaluar si las políticas de Facebook abordan adecuadamente los videos alterados que podrían inducir a error a las personas haciéndolas creer que los políticos han tomado acciones que no han realizado.

El Comité está interesado en recibir comentarios y propuestas del público en áreas específicas relacionadas con este caso. Algunas de estas áreas incluyen investigar las tendencias en línea en el uso de videos manipulados para influir en la percepción de los políticos, evaluar la idoneidad de las políticas de desinformación de Meta en relación con los medios manipulados, y analizar las mejores prácticas para autenticar contenido de video a gran escala.


Preocupaciones sobre la desinformación política


La controversia en torno al video falso de Biden refleja las preocupaciones más amplias sobre la desinformación política en las redes sociales. A medida que nos acercamos a las elecciones presidenciales de Estados Unidos en 2024, tanto expertos como legisladores están cada vez más preocupados por el impacto de los "deepfakes" y otros tipos de contenido manipulado en el discurso político.

La capacidad de difundir información falsa y engañosa a través de plataformas como Facebook plantea serias amenazas para la democracia y la confianza en las instituciones políticas. Por lo tanto, es fundamental que las empresas de redes sociales adopten políticas sólidas y efectivas para abordar este problema y proteger la integridad de los procesos electorales.


El futuro de la moderación del contenido en las redes sociales


A medida que la tecnología continúa avanzando y los métodos de manipulación de contenido se vuelven más sofisticados, es crucial que las plataformas de redes sociales, como Facebook, se mantengan a la vanguardia de la lucha contra la desinformación. Esto requiere una combinación de políticas claras, tecnología de detección de contenido manipulado y una revisión constante de las reglas y regulaciones existentes.

El caso del video falso de Biden pone de relieve la necesidad de abordar estos desafíos de manera proactiva. Si bien es importante proteger la libertad de expresión y evitar la censura en línea, también es fundamental garantizar que las plataformas no se conviertan en vehículos para la difusión de desinformación y propaganda política.


El debate en torno al video falso de Biden en Facebook ha puesto de relieve las complejidades y desafíos que enfrentan las plataformas de redes sociales en la moderación del contenido. Si bien es importante permitir la libertad de expresión, también es crucial abordar la desinformación y proteger la integridad de los procesos democráticos.

Facebook y otras plataformas deben adoptar políticas y tecnologías efectivas para detectar y eliminar contenido manipulado, como los "deepfakes". Además, es necesario un debate continuo sobre las mejores prácticas de moderación del contenido y la responsabilidad de las empresas de redes sociales en la lucha contra la desinformación.

La sociedad en su conjunto también tiene un papel que desempeñar en la promoción de la alfabetización mediática y la capacidad crítica para discernir la información confiable de la falsa. Solo a través de esfuerzos conjuntos podemos abordar estos desafíos y garantizar que las redes sociales sean espacios seguros y confiables para el intercambio de información y la participación democrática.

bottom of page