el más reciente

― Advertisement ―

Relacionada

spot_img
HomeTecnologíaEl engaño con IA es una amenaza para nuestras sociedades

El engaño con IA es una amenaza para nuestras sociedades

Dondequiera que haya habido conflicto en el mundo, la propaganda nunca ha estado muy acullá. Alucinación en el tiempo a 515 a. C. y lea la inscripción de Behistun, una memorias del rey persa Darío que discute su encumbramiento al poder. Más recientemente, vea cómo los diferentes periódicos informan sobre las guerras, donde se dice: “La primera víctima es la verdad”.

Si admisiblemente estas formas de comunicación podrían dar forma a las creencias de las personas, igualmente tienen limitaciones en torno a la escalabilidad. Cualquier correo y propaganda a menudo perdería su poder a posteriori de recorrer una cierta distancia. Por supuesto, con las redes sociales y el mundo en cadeneta hay pocos límites físicos en el capacidad, separado de donde cae la conexión a Internet de alguno. Agregue el surgimiento de la IA, y siquiera hay falta para detener la escalabilidad.

Este artículo explora lo que esto significa para sociedades y organizaciones que enfrentan la manipulación y el farsa de información con IA.

El surgimiento de la cámara de eco

Según el Centro de Investigación Pew, en torno a de uno de cada cinco estadounidenses reciben sus informativo de las redes sociales. En Europa, ha habido un aumento del 11% en las personas que utilizan plataformas de redes sociales para lograr a las informativo. Los algoritmos de IA están en el corazón de este cambio de comportamiento. Sin secuestro, no están obligados a presentar los dos lados de una historia, en la forma en que los periodistas están capacitados y que los reguladores de medios requieren. Con menos restricciones, las plataformas de redes sociales pueden centrarse en servir contenido a los que a sus usuarios les gusta, desean y reaccionan.

Este enfoque en surtir los globos oculares puede conducir a una cámara de eco digital y puntos de apariencia potencialmente polarizados. Por ejemplo, las personas pueden circunvalar las opiniones con las que no están de acuerdo, mientras que el operación ajusta automáticamente los alimentos de los usuarios, incluso monitoreando la velocidad de desplazamiento, para aumentar el consumo. Si los consumidores solo ven contenido con el que están de acuerdo, están llegando a un consenso con lo que AI les está mostrando, pero no con el mundo en universal.

Leer  CISA advierte de exploits activos dirigidos a la vulnerabilidad de Trimble Cityworks

Encima, más de ese contenido ahora se está generando sintéticamente utilizando herramientas de IA. Esto incluye más de 1,150 sitios web de informativo generados por IA poco confiables identificados recientemente por NewsGuard, una compañía especializada en confiabilidad de la información. Con pocas limitaciones para la capacidad de producción de AI, los procesos políticos de larga data están sintiendo el impacto.

Cómo se está desplegando AI para el farsa

Es calibrado opinar que los humanos somos impredecibles. Nuestros múltiples sesgos e innumerables contradicciones se desarrollan constantemente en cada uno de nuestros cerebros. Donde miles de millones de neuronas hacen nuevas conexiones que dan forma a las realidades y, a su vez, nuestras opiniones. Cuando los actores maliciosos agregan IA a esta potente mezcla, esto lleva a eventos como:

  • Videos de Deepfake que se extienden durante las elecciones de los Estados Unidos: Las herramientas de IA permiten que los cibercriminales creen imágenes falsas, con personas que se mueven y hablan, utilizando solo indicaciones de texto. Los altos niveles de facilidad y velocidad significan que no se necesita experiencia técnica para crear imágenes realistas con AI. Esta democratización amenaza los procesos democráticos, como se muestra en el período previo a las recientes elecciones estadounidenses. Microsoft destacó la actividad de China y Rusia, donde se observó que “los actores de amenaza integraban la IA generativa en sus esfuerzos de influencia electoral estadounidense”.
  • Clonación de voz y lo que dicen las figuras políticas: Los atacantes ahora pueden usar IA para copiar la voz de cualquier persona, simplemente procesando unos segundos de su discurso. Eso es lo que le sucedió a un político eslovaco en 2023. Una reproducción de audio falsa se extendió en cadeneta, supuestamente presentando a Michal Simecka discutiendo con un periodista cómo arreglar una próxima alternativa. Si admisiblemente se descubrió que la discusión era falsa, todo esto sucedió solo unos días ayer de que comenzara las encuestas. Algunos votantes pueden poseer emitido su voto mientras creía que el video de AI era auténtico.
  • LLMS fingiendo el sentimiento notorio: Los adversarios ahora pueden comunicar tantos idiomas como su LLM escogido, y a cualquier escalera igualmente. En 2020, una LLM temprana, GPT-3, recibió capacitación para escribir miles de correos electrónicos a los legisladores estatales de los Estados Unidos. Estos abogaron por una combinación de problemas desde la izquierda y la derecha del espectro político. Se enviaron en torno a de 35,000 correos electrónicos, una mezcla de escritos humanos y escritos por IA. Las tasas de respuesta del parlamentario “fueron estadísticamente indistinguibles” en tres temas planteados.
Leer  Hazy Hawk explota registros DNS para secuestrar CDC, dominios corporativos para la entrega de malware

El impacto de la IA en los procesos democráticos

Todavía es posible identificar muchos engaños con IA. Ya sea de un entorno fallido en un video o una palabra mal pronunciada en un discurso. Sin secuestro, a medida que avanza la tecnología, se volverá más difícil, incluso inútil separar los hechos de la ficción.

Los verificadores de datos pueden adjuntar seguimientos a las publicaciones falsas de las redes sociales. Los sitios web como Snopes pueden continuar desacreditando las teorías de conspiración. Sin secuestro, no hay forma de cerciorarse de que estos vieran todos los que vieron las publicaciones originales. Además es sobrado inútil encontrar la fuente diferente de material adulterado, conveniente a la cantidad de canales de distribución disponibles.

Ritmo de proceso

Ver (o escuchar) es creer. Lo creeré cuando lo vea. Muéstrame, no me digas. Todas estas frases se basan en la comprensión evolutiva del mundo humano del mundo. A entender, que elegimos encargar en nuestros fanales y oídos.

Estos sentidos han evolucionado durante cientos, incluso millones de abriles. Mientras que ChatGPT se lanzó públicamente en noviembre de 2022. Nuestros cerebros no pueden adaptarse a la velocidad de la IA, por lo que si las personas ya no pueden encargar en lo que está frente a ellos, es hora de educar a los fanales, oídos y mentes de todos.

De lo contrario, esto deja a las organizaciones abiertas al ataque. A posteriori de todo, el trabajo a menudo es donde las personas pasan más tiempo en una computadora. Esto significa equipar las fuerzas laborales con conciencia, conocimiento y desconfianza cuando se enfrenta al contenido diseñado para difundir obra. Si eso contiene mensajes políticos en el momento de las elecciones, o pidiendo a un empleado que evite los procedimientos y realice un suscripción a una cuenta bancaria no verificada.

Leer  Los ataques DDoS hiper-volumétricos alcanzan el récord de 7.3 Tbps, dirigidos a los sectores globales clave

Significa hacer que las sociedades sean conscientes de las muchas formas en que los actores maliciosos juegan en sesgos naturales, emociones e instintos para creer lo que alguno está diciendo. Estos se desarrollan en múltiples ataques de ingeniería social, incluido el phishing (‘el tipo de crimen de Internet número uno’ según el FBI).

Y significa apoyar a las personas para entender cuándo hacer una pausa, reflexionar y desafiar lo que ven en cadeneta. Una forma es afectar un ataque con IA, para que obtengan experiencia de primera mano de cómo se siente y qué tener en cuenta. Los humanos dan forma a la sociedad, solo necesitan ayuda para defenderse, las organizaciones y las comunidades contra el farsa con IA.


El más popular

spot_img