Hablando en serio, esta es en realidad una de las piezas más grandes que faltan en el rompecabezas. No tanto la parte de la IA, sino la parte local. Las plataformas no ofrecen a sus usuarios capacidades reales sobre quién y qué puede llegar a sus notificaciones. Casi no hay controles proactivos, incluso los peores reactivos, la verdad. Como resultado, la plataforma pasa a ser la única responsable de detener TODO el spam, slop, bots, etc. Junto con toda otra actividad dañina. Y nunca pueden hacerlo perfectamente porque el incentivo es demasiado grande y los actores demasiado diversos. También les obliga a recurrir a soluciones potencialmente más peligrosas, por ejemplo, los shadowbans, donde el usuario cree que está recibiendo atención pero en realidad es invisible. Los shadowbans son una parte necesaria de la lucha porque interrumpen a los actores amenazantes y dificultan que detecten cuáles de sus acciones están haciendo que sean capturados. Ralentiza su tiempo de respuesta y su tiempo de evolución. Pero también es un gran riesgo socavar a tus usuarios legítimos, ya que son impotentes y no tienen conocimiento ni recursos si los eliminas accidentalmente. También es más fácil de abusar cuando se trata de censurar a personas por razones políticas o arbitrarias. En fin, pensaba que veríamos a más gente darse cuenta y construir controles para los usuarios después de que iOS pasara al menos 4 ciclos haciendo esto para las notificaciones de iOS. No lo hemos hecho, jaja. Pero quizá los bots permitan a las personas resolver el problema sin involucrar (o literalmente comprar) la plataforma.