Es tiempo de abordar los riesgos de contenidos abusivos generados con IA: Microsoft
Publicado por Redacción Portal ERP México en 11/02/2025 en IT SecurityEncuesta de Microsoft analiza cómo las personas ven y usan la Inteligencia Artificial (IA), y qué tan bien pueden identificar el contenido generado mediante esta tecnología.
Foto: cortesía. Portal ERP México.
De acuerdo con la novena Encuesta Global de Seguridad en Línea de Microsoft, analiza cómo las personas ven y usan la Inteligencia Artificial (IA), y qué tan bien pueden identificar el contenido generado mediante esta tecnología.
Los hallazgos muestran que, si bien existe un aumento global en los usuarios de IA (el 51% la ha usado alguna vez en comparación con el 39% en 2023), las preocupaciones sobre la tecnología también han aumentado: el 88% de las personas estaban preocupadas por la IA generativa, en comparación con el 83% del año pasado. Además, las personas tienen dificultades para identificar el contenido generado mediante IA, lo que amplifica los riesgos de contenido abusivo de la IA.
Percepciones sobre la seguridad en línea en México
En México, el 71% de los encuestados experimentaron algún riesgo en línea durante el último año y los principales riesgos incluyen desinformación (53%), contenido violento (43%) y discurso de odio (32%). Aunque las preocupaciones sobre los riesgos en línea han disminuido en áreas clave como el ciberacoso y la explotación sexual infantil, los adolescentes siguen enfrentando desafíos significativos. La mayoría de los adolescentes reaccionan bloqueando o eliminando a los perpetradores (86%) y buscan apoyo (71%), sin embargo, solo el 46% de los padres se sienten muy preparados para discutir estos riesgos con sus hijos.
Te puede interesar: Microsoft presenta actualizaciones en IA para robustecer la seguridad
Por otro lado, el uso de la IA generativa ha aumentado en México, con un 27% de las personas usándola en los últimos tres meses, liderado por los millennials (54%), sin embargo, a pesar del entusiasmo por las herramientas de traducción (48%) y la eficiencia en el trabajo (43%), las preocupaciones sobre la IA generativa son altas. Los riesgos más mencionados incluyen abuso sexual o en línea (69%), generación de estafas (68%) y deepfakes (67%). Además, el 83% de los niños han usado IA para crear deepfakes de sus compañeros, y el 82% ha accedido a contenido inapropiado para su edad.
Otros resultados de la Encuesta Global de Seguridad en Línea:
Este año, Microsoft interrogó a las personas sobre su capacidad para identificar contenido generado por IA por medio de imágenes del?cuestionario “Real or Not” (Real o No) de Microsoft. Preguntaron a los encuestados sobre su confianza en la detección de deepfakes antes y después de ver una serie de imágenes. Se descubrió que el 73% de los encuestados globales admitió que detectar imágenes generadas por IA es difícil, y solo el 38% de las imágenes se identificaron de manera correcta. También se les preguntó a las personas sobre sus preocupaciones: las preocupaciones comunes sobre la IA generativa incluían estafas (73 %), abuso sexual o en línea (73 %) y deepfakes (72 %).
La investigación también muestra que las personas de todo el mundo continúan expuestas a una variedad de riesgos en línea, con un 66% expuesto a al menos un riesgo durante el último año.
A medida que la adopción de la IA generativa continúa creciendo, es crucial que los usuarios se equipen con herramientas y conocimientos necesarios para identificar y mitigar estos riesgos. La colaboración entre educadores, empresas tecnológicas y la comunidad en general es esencial para crear un entorno en línea más seguro y responsable.