El “Slop” puede traducirse como basura o 'bazofia' y hace referencia al contenido creado automáticamente por herramientas de IA generativa de manera automatizada

11 de julio de 2024, 9:03 AM
11 de julio de 2024, 9:03 AM

Artículos sin pies ni cabeza que solo crean desinformación, memes e imágenes sin sentido que inundan las redes sociales, titulares llamativos, pero sin contenido fidedigno que atiborran los “timelines” de los cibernautas. La inteligencia artificial (IA) ha abierto la puerta a una nueva era de creatividad y automatización, pero también a un nuevo tipo de basura digital, el “Slop”, la evolución del “Spam”, uno de los males aparecidos con el auge del internet.

El “Slop” puede traducirse como basura o 'bazofia' y hace referencia al contenido creado automáticamente por herramientas de IA generativa de manera automatizada, sin labor humana ni supervisión alguna, que solo tiene como fin monetizar de alguna forma (visitas a una web o inflar cifras de seguidores, entre otros usos).

Como ocurre con el Spam (correos basura o contenido basura), estos contenidos indeseables son programados y creados con el simple fin de generar tráfico o ser monetizados, lo que incentiva su producción masiva con la ayuda de la IA generativa, que facilita la tarea de generar textos o imágenes a escala industrial, aunque su calidad y utilidad sean nulos.

Medios especializados en tecnología citan algunos ejemplos, como artículos turísticos que recomiendan visitar tugurios o sitios sin importancia en ciudades, libros publicados en Amazon de nula calidad o memes virales sin sentido en Facebook o X.

Estos contenidos son muchas veces ridículos e inofensivos, aunque molestos por su persistencia, generando pérdida de tiempo y frustración entre los cibernautas, ya que los obligan a navegar entre decenas de páginas inútiles y reducen la confianza en los contenidos legítimos.

Simon Willison, un desarrollador al que se le atribuye ser uno de los primeros en usar la palabra “slop” indica que es crucial reconocer y etiquetar esta amenaza. "El término spam ayudó a entender y combatir los correos basura. Definir el slop puede concienciar sobre los peligros de la IA sin supervisión", advierte.

El experto alerta que, hoy en día, no existen demasiadas herramientas para detectar este tipo artículos. Sin embargo, cree que, con el paso del tiempo, se le podrá poner coto del mismo modo que al spam.

Sin embargo, aunque la IA tenga el potencial suficiente como para cambiar la vida de la humanidad, también hay quienes tratan de sacarle partido con fines ilícitos. De hecho, cada vez es más habitual encontrarnos con noticias de deepfakes circulando por las redes. Incluso es utilizada para perfeccionar la redacción de los correos electrónicos de phishing y para difundir bulos.

Marcelo Pacheco, director de la carrera de Ingeniería de Sistemas de la Universidad Franz Tamayo, Unifranz, asegura que, como ocurre con cualquier herramienta tecnológica, la IA puede ser utilizada tanto para el bien como para el mal, es decir, sus usos pueden ser beneficiosos para la humanidad, pero también perjudiciales.

Unifranz

Es posible utilizar la inteligencia artificial (IA) para una multitud de cosas

“Es posible utilizar la inteligencia artificial (IA) para una multitud de cosas, desde facilitarnos la vida hasta realizar extorsiones, ya que la IA no es inherentemente buena o mala, es lo que hacemos con ella”, indica.  

Por su parte, el ingeniero de sistemas Sergio Valenzuela, docente de la carrera de Ingeniería de sistemas de Unifranz, expresa que es importante entender la dualidad del ser humano, que puede ser capaz de un gran bien, como de un gran mal, por lo que la ética siempre debe ir de la mano con los avances, ya que de esta manera se pueden reducir los riesgos.

“La IA no es inherentemente buena o mala, sin embargo, es importante que su desarrollo se guíe por principios éticos y se evite que a través de su uso se haga daño a la sociedad”, acota.

Ante esta realidad, los expertos invitan a los cibernautas a a contrastar la información que están leyendo si existe la mínima sospecha de que haya sido generada con IA. Asimismo, señalan que la única solución viable pasa por obligar al etiquetado de los contenidos producidos mediante esta tecnología para que los usuarios sepan la verdad. Un sistema que está tratando de poner en práctica Meta en Facebook e Instagram, aunque sin el éxito esperado.