Cuando apareció la aplicación que permitía enviar imágenes que desaparecían pocos segundos después, los usuarios parecían muy entusiasmados. Ahora, sin embargo, Snapchat quiere dejar atrás lo que le dio la fama.
Snapchat lleva años intentando distanciarse del sexo. Ahora, la necesidad de limpiar su plataforma se ha convertido en una obligación empresarial: el 96% de los ingresos de la empresa en 2016 provinieron de publicidad, según su reciente presentación de resultados. Sin embargo, esos anunciantes están empezando a darse cuenta de que corren el riesgo de que su material, cuidadosamente creado y valorado en millones, tarde o temprano se vea relacionado con la pornografía.
Según el New York Times, GroupM, el brazo de inversión en medios de WPP, una enorme empresa de publicidad, ha advertido recientemente a sus clientes de que los anuncios que se publican en la función "Historias" de Snapchat podrían ser visualizados por usuarios justo antes o después de acceder a "contenido explícito para adultos".
Eso es porque lo que ven los usuarios que ven Historias es una sucesión de contenido de todas las cuentas que siguen, por lo que si alguien sigue una cuenta que decide enviar contenido sexual, el anunciante, el usuario o incluso Snapchat no pueden hacer nada para pararlo (aunque los usuarios tienen que hacer clic en cada historia para que esta se reproduzca).
Snapchat lleva mucho tiempo intentando limpiar su plataforma - y su reputación – de contenido sexual. Cualquier persona de 13 años o más puede crear una cuenta, y la plataforma es particularmente popular entre los jóvenes de 18-25 años de edad. El principal reclamo de la aplicación era que las imágenes que se envían a través de ella se autodestruyen en unos pocos segundos, y la libertad de enviar contenido efímero dio lugar a que la aplicación rápidamente fuera asociada con el "sexting".
Conforme la aplicación desarrollaba funciones de vídeo y la capacidad de unir clips para crear Historias más largas que se podían ver más de una vez, empezó a establecerse un negocio organizado de pornografía. Las cuentas que ofrecían videos de desnudos y otro contenido para adultos contaban con centenares de millares de seguidores, discutiblemente ayudando a establecer la marca.
La empresa no quiere verse asociada con este contenido sexual al que hizo referencia en su presentación pública en 2016.
Los términos y servicios de la aplicación estipulan que la pornografía está permitida. Sin embargo, dada la facilidad para abrir una cuenta, la empresa nunca ha dudado en eliminar las cuentas de los usuarios que no cumplan con las normas en lugar de impedir la creación de tales cuentas. En 2014 empezó un serio programa de borrado de cuentas. Sin embargo, está claro que la gente todavía tiene acceso a contenido explícito en la aplicación.
Snapchat ha dicho que cuenta con herramientas para evitar que los usuarios y anunciantes vean o sean asociados con contenido que no hayan elegido explícitamente. Estas herramientas incluyen equipos dedicados a la seguridad y el abuso que revisan los informes y buscan cualquier violación de los términos del servicio.
Un portavoz de la empresa también dijo a Quartz que la nota de GroupM hacía referencia a un usuario específico que, aunque sí publicaba contenido explícito en otras partes de Internet, no publicaba material sexual en Snapchat.
La compañía también va a lanzar pronto una herramienta de informes de abuso en la aplicación que actualmente se encuentra en fase beta en Australia.
El problema consiste en controlar a todas las partes involucradas. Las empresas responsables de las herramientas tecnológicas que usamos a diario y en las que confiamos no siempre pueden predecir cómo van a ser utilizadas, tal y como demuestran los problemas de Google (NASDAQ: GOOGL.NASDAQ) con los anunciantes molestos porque sus anuncios han aparecido junto a contenido que incita al odio; las batallas de Twitter (NYSE: TWTR.NYSE) con el rastreo racista y misógino o su uso por posibles terroristas; y la reciente experiencia de Facebook (NASDAQ: FB.NASDAQ) con su función Live, que ha sido utilizada para grabar ataques y suicidios en directo.
Las personas que utilizan las plataformas suelen hacerlo baje su cuenta y riesgo, y los padres que quieren controlar en cierta medida el uso que hacen sus hijos de estas aplicaciones suelen encontrarse con pocas herramientas para ayudarles en esta tarea.
Los anunciantes tienen que acostumbrarse a que los medios ya no están tan controlados y que no pueden abandonar por completo esas plataformas.