El gigante tecnológico Google anunció que, gracias a la implementación de Inteligencia Artificial (IA), logró bloquear más de cinco mil 100 millones de anuncios que violaban sus políticas en 2024.
De acuerdo con su Ads Safety Report 2024, los avances en Modelos de Lenguaje Grande (LLMs) han revolucionado la detección de anuncios maliciosos, fraudes y estafas en sus plataformas.
La compañía implementó más de 50 mejoras en sus LLMs, permitiendo una detección más rápida y precisa de amenazas emergentes, incluyendo el auge de deepfakes para personificar figuras públicas y promocionar estafas.
“Nuestros últimos LLMs operan con mucha más eficiencia”, afirmó Alex Rodríguez, gerente general de Ads Safety de Google.
Te puede interesar: Google apuesta por la ciberseguridad: Adquiere Wiz por 32 mmdd
La IA también jugó un papel fundamental en la moderación de publicadores, contribuyendo a la detección y aplicación de políticas en el 97 % de las páginas en las que se tomaron acciones, resultando en la restricción de anuncios en mil 300 millones de páginas.
Además, Google verificó la identidad de más del 90 % de los anunciantes en sus plataformas, lo que llevó a la suspensión de 39.2 millones de cuentas, la mayoría antes de que pudieran publicar anuncios.
Frente al desafío de los deepfakes, Google suspendió permanentemente 700 mil cuentas y redujo en 90 % los informes de estafas de ese tipo.
La compañía también colabora internacionalmente a través del Global Signal Exchange con la Global Anti-Scam Alliance para combatir el fraude de manera coordinada.
En un año electoral internacional, Google reforzó sus medidas para garantizar la transparencia en la publicidad política, verificando a más de ocho mil 900 nuevos anunciantes políticos y eliminando 10.7 millones de anuncios de cuentas no verificadas.
También aplicó políticas contra afirmaciones falsas, asegurando la divulgación de quién paga por cada anuncio.