• Nobsi@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    1
    arrow-down
    10
    ·
    1 year ago

    Das ist bereits gelöst. Mods und Admins müssen halt ihren ““Job”” machen. Bei Reddit gibts auch keine KI.
    Allerdings muss man da noch sagen, dass der CEO mod von Jailbait war.
    CP ist eigentlich in jedem Land verboten, es gibt also nur einen Grund, warum das Problem existiert. Zu wenig Moderatoren bzw User.

    • Hubi@feddit.deOPM
      link
      fedilink
      Deutsch
      arrow-up
      20
      ·
      edit-2
      1 year ago

      Das hat weniger etwas mit den “Job machen” zu tun und mehr mit den aktuellen Fähigkeiten der Software. Bei über einer Million Lemmy-Nutzern ist es unmöglich, das allein von menschlichen Moderatoren stremmen zu lassen. Auch Reddit hat extrem komplexe und automatisierte Systeme hinter den Kulissen.

      https://www.reddit.com/r/RedditEng/comments/13bvo5b/reddits_p0_media_safety_detection

      Darüber hinaus ist hier ja der Faktor, dass es überhaupt nicht erst im Netzwerk auftauchen soll. Müssten Moderatoren die Posts händisch löschen, nachdem sie im Fediverse gepostet wurden, hätte das zur Folge, dass jeder Betreiber einer Instanz das im Anschluss machen müsste. Für jeden einzelnen Post.

      Die aktuellen Lösungsansätze bauen auf eine automatische Erkennung auf, da nur so verhindert werden kann, dass die Posts überhaupt erst sichtbar und föderiert werden.

      • Nobsi@feddit.de
        link
        fedilink
        Deutsch
        arrow-up
        3
        arrow-down
        2
        ·
        1 year ago

        Der Content muss doch nur von der instanz gepurged werden auf der er war. dann kann auch keine andere instanz mehr zugreifen.

        • nachtigall@feddit.de
          link
          fedilink
          Deutsch
          arrow-up
          9
          ·
          1 year ago

          Und gerade das klappt zur Zeit nicht, weil Lemmy lokale Vorschaubilder von remote content erzeugt, die ad infinitum bestehen bleiben.