Jaime Morales | Profesional y Tutor en Ciberseguridad

La baja calidad del contenido por el uso de las IA

La inteligencia artificial ha afectado a la creación de contenido como nunca antes. Hoy en día, cualquier persona puede generar textos, vídeos o imágenes en segundos con IA, y con tanta información en internet ya es difícil diferenciar qué es real y qué ha sido creado artificialmente. La facilidad para producir este contenido ha generado una cantidad enorme de información de una calidad muy baja, que no solo afecta a la ciberseguridad, sino a muchas otras áreas. Lo que antes requería conocimiento técnico y experiencia ahora puede ser imitado por sistemas automatizados, dando lugar a información vacía, repetitiva o directamente incorrecta.

Esto se repite en distintos campos, como la biotecnología, el periodismo, el arte o la creación de contenido en YouTube y otras plataformas, y ya tiene nombre: “slop”, término que se utiliza para describir el exceso de contenido generado por IA con poco o ningún valor real.

En el área de la ciberseguridad, el impacto es especialmente delicado. Abundan textos que repiten conceptos básicos sin profundizar, explicaciones incorrectas sobre vulnerabilidades o recomendaciones genéricas. Esto genera una sensación de falso conocimiento que, en un entorno real, puede traducirse en decisiones equivocadas y errores graves. Este tipo de contenido suele estar optimizado para atraer visitas y no para aportar valor real: muchas plataformas monetizan por volumen de tráfico, no por calidad, y priorizan la cantidad frente a la precisión de la información.

Lo mismo ocurre en otros sectores. En biotecnología, por ejemplo, pueden aparecer textos que se presentan como artículos científicos sin un proceso real de prueba, revisión y contraste.

Los medios digitales y el contenido audiovisual tampoco se han salvado. Un análisis publicado por The Guardian en agosto de 2025 examinó cómo la “basura” generada por IA se está apoderando de algunos de los canales de YouTube con mayor crecimiento: nueve de los 100 canales que más rápido crecían mostraban únicamente contenido generado por IA, con vídeos tan surrealistas como “telenovelas de gatos” o historias de bebés atrapados en el espacio, cuyo objetivo principal no es informar ni educar, sino existir y monetizar.

La facilidad para generar textos también ha impactado a espacios creativos y editoriales. La revista de ciencia ficción Clarkesworld tuvo que cerrar temporalmente el envío abierto de relatos debido a la avalancha de manuscritos generados por IA, que saturaban la capacidad de revisión y desplazaban a autores reales.

A esto se suma el problema de la desinformación visual. El contenido generado por IA en forma de imágenes y vídeos ha mejorado tanto que cada vez resulta más difícil de identificar, lo que permite usar estas herramientas para manipular narrativas, influir emocionalmente o reforzar discursos engañosos, especialmente en situaciones de crisis.

La inteligencia artificial no es el problema en sí, sino el uso irresponsable que se hace de ella. La IA debe ser una herramienta de apoyo, no un sustituto del pensamiento crítico, de la experiencia profesional ni de la responsabilidad editorial. Crear contenido de calidad es más necesario que nunca en un entorno digital saturado de ruido. Frente a todo esto, el valor sigue estando en el conocimiento bien construido y en la voz humana que hay detrás.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio