La desinformación amplificada por IA: un riesgo creciente para sectores público y privado v6q3d

La desinformación amplificada por IA: un riesgo creciente para sectores público y privado
La desinformación amplificada por IA: un riesgo creciente para sectores público y privadoLLYC

En 2024, la inteligencia artificial está amplificando la desinformación en campañas políticas y empresas, con un estudio de la USC revelando que el 15% de los s más activos son responsables del 30-40% de las noticias falsas. Este fenómeno plantea un grave riesgo para la reputación de las organizaciones. 3j4v6y

La era de la IA y la desinformación: cómo afecta a la política y a las empresas 662m27

(23/Oct/2024 – Panama24Horas web) Panamá.- En un año clave para la política global, 2024 se perfila como un escenario donde la inteligencia artificial (IA) tendría un impacto significativo en los procesos electorales, especialmente en Estados Unidos. Sin embargo, la realidad está tomando un rumbo distinto al esperado. Lejos de ver una avalancha de deepfakes o noticias fabricadas que cambien la opinión pública, la IA está actuando de una manera más sutil y peligrosa: amplificando la desinformación ya existente y profundizando la polarización social. Esta situación no solo afecta a los políticos, sino que el sector privado, especialmente las empresas con alta visibilidad pública, también se encuentra expuesto y tiene mucho que aprender de este fenómeno. 2e46w

Las empresas que se encuentran en momentos de alta exposición mediática —como lanzamientos de productos, rebranding o fusiones— son objetivos atractivos para ataques de desinformación. Las estructuras de recompensa de las redes sociales han cambiado y ahora impulsan la compartición rápida y sensacionalista de información, fomentando la propagación de noticias falsas a gran escala. Este riesgo afecta tanto a las empresas como a los políticos, convirtiéndose en un aspecto esencial para el sector privado aprender de lo que ocurre en el entorno político para proteger su reputación.

«Nos preocupaba que la IA inundara las elecciones con noticias falsas y videos deepfake, creando realidades paralelas; pero lo que hemos visto es una amenaza menos obvia: la IA amplifica y distribuye contenido engañoso de manera casi imperceptible para el público. Esta amenaza sutil está cambiando la forma en que las campañas manejan la comunicación y obliga a las marcas y candidatos a estar más vigilantes que nunca», señala Adolfo Corujo, socio y director general corporativo de talento e innovación de LLYC, en el podcast «Esto es lo que AI».

Un estudio reciente del Pew Research Center reveló que el 57% de los adultos estadounidenses están muy preocupados de que la IA se utilice para difundir información falsa sobre los candidatos. La razón es que la mayoría del contenido manipulado fue visto por s que ya compartían esas creencias políticas, lo que consolidó sus perspectivas en lugar de cambiar la opinión de los votantes indecisos. Esto mismo puede suceder en el entorno corporativo: la desinformación no siempre busca alterar la opinión pública general, sino reforzar ideas preconcebidas entre grupos específicos de consumidores o accionistas.

Además, un estudio de la Universidad del Sur de California (USC) mostró que un pequeño grupo de s tiene un impacto desproporcionado en la difusión de información falsa. Solo el 15% de los s más activos en compartir noticias fueron responsables de entre el 30% y el 40% de las noticias falsas distribuidas en redes sociales. Esto es preocupante porque demuestra cómo un grupo reducido puede influir enormemente en la percepción pública, algo que también afecta la imagen y la reputación de las empresas cuando se enfrentan a campañas de desinformación.

Asimismo, las empresas que tienen directores ejecutivos con alta visibilidad en redes sociales o aquellas que están involucradas en transacciones públicas importantes, como una oferta pública inicial (IPO) o una fusión, son objetivos preferidos para los ataques de desinformación. Estos ataques pueden aprovechar la IA para crear contenidos que se diseminan rápidamente, distorsionando la percepción pública.

Ante este panorama, LLYC, firma global de Marketing y Corporate Affairs, sugiere que las empresas adopten estrategias proactivas para proteger su identidad y reputación:

• Monitorear y aprovechar las redes sociales: Es fundamental vigilar los canales sociales en tiempo real para anticipar y detectar posibles campañas de desinformación en sus primeras etapas.

• Blindar la identidad de la marca: Crear una estrategia sólida que fortalezca la credibilidad de la empresa ante posibles ataques de desinformación, anticipando riesgos antes de que se materialicen.

• Desarrollar un plan de recuperación: Integrar un plan de respuesta a la desinformación dentro del programa de gestión de crisis de la empresa, para actuar rápida y efectivamente ante cualquier amenaza que afecte la reputación de la marca.

Si bien el impacto directo de la desinformación habilitada por IA puede no ser siempre evidente, como se ha visto en algunas elecciones, la amenaza persiste y debe tomarse en serio. Tanto en el ámbito político como en el corporativo, el desafío más allá de identificar la desinformación está en aprender a mitigar su impacto antes de que cause un daño irreparable. El entorno digital ha redefinido la comunicación y las reglas de juego para campañas y empresas. Mientras que en el pasado, tener una presencia fuerte en redes sociales generaba confianza, hoy esa visibilidad también representa un riesgo si no se gestiona adecuadamente.

Deja un comentario 4u5j2y

Su dirección de correo electrónico no será publicada. Los campos requeridos estan marcados con *

Cancel reply

Opinión 36x64


330x2801

Últimas Noticias 5q6v49

Deportes 5763