Startseite/Gesellschaft/Digitalisierung/Künstliche Intelligenz
2 August 2019 / Lesezeit: 3 minuten

Künstliche Intelligenz

Wie KI Menschenrechte schützt

Menschenrechte sind weiter weltweit bedroht. Künstliche Intelligenz hilft NGOs in ihrem Kampf gegen Verstöße

Für NGOs bietet künstliche Intelligenz ganz neue Methoden im Kampf für die Einhaltung der Menschenrechte. Was den Aktivist*innen häufig fehlt, ist das Know-how. Doch die NGOs rüsten auf – und holen sich Hilfe

Künstliche Intelligenz hat ein Imageproblem. Sie provoziert vor allem kritische Fragen: Nimmt sie uns Jobs weg? Nutzen Unternehmen sie aus, um uns zu manipulieren? Und übernimmt sie eines Tages sogar die Kontrolle über unser Leben?

Immer langsam. Künstliche Intelligenz (kurz: KI) ist eine Technik, die Prozesse erledigen kann, für die der Mensch zu langsam ist. Und natürlich funktioniert sie auch bei guten Anliegen. Wie beim Schutz der Menschenrechte. Sind die Organisation in der Lage, diese Technik zu nutzen, stehen ihnen ganz neue Möglichkeiten offen. KI kann also helfen, Verstöße gegen die Menschenrechte zu erkennen und den Kampf für deren Einhaltung zu gewinnen.

KI hilft, illegale Munition zu enttarnen

Wie das funktionieren kann, zeigt VFrame: Hinter der gemeinnützigen Open-Source-Software steckt eine KI, die in der Lage ist, Bilder in Videos zu analysieren und zu bewerten. Zum Einsatz kommt sie in den Konfliktgebieten im Jemen oder in Syrien.

Einwohner*innen und Beobachter*innen von dort posten täglich unzählige Filme im Internet, um die Situation zu dokumentieren. Für die Menschenrechtsorganisation zählen diese Videos zu den wichtigsten Informationsquellen, um zeigen, was sich in den Ländern abspielt. Allein das Syrian Archive, das Filme über den Krieg im Land sammelt, hat auf seinen Servern mehr als drei Millionen Videos gespeichert. Selbst eine gut besetzte Stabstelle mit menschlichen Mitarbeiter*innen bräuchte rund drei Jahre, um die Filme zu sichten.

Hier hilft eine Software wie VFrame: Die Entwickler haben den Algorithmus so trainiert, dass er im Video zunächst einmal alles ignoriert, was auch anderswo zu sehen ist. Dann macht er sich auf die Suche nach Objekten, die auf illegale Munition hinweisen. So sei es gelungen, mit Hilfe der KI im Syrienkonflikt zu zeigen, wo und wann Streumunition oder chemische Waffen zum Einsatz kamen, sagt Adam Harvey, einer der Entwickler. Zudem sei die Software in der Lage, die Echtheit von Videos zu belegen – eine Funktion, die im Zeitalter des ständigen Fake-News-Verdachts immer wichtiger wird.

Online-Analyse von Missbrauch gegen Frauen

Künstliche Intelligenz für das Allgemeinwohl

Dieser Text ist Teil einer Serie zum Thema „Künstliche Intelligenz für das Allgemeinwohl“. Ermöglicht wird sie durch ein Themensponsoring durch Microsoft. Die Themen der Beiträge werden frei von der enorm Redaktion ausgewählt. Sie werden weder mit dem Sponsor abgestimmt, noch werden die Texte ihm vor der Veröffentlichung vorgelegt. Mehr zu unseren Finanzierungsmöglichkeiten

Viele Menschenrechtsorganisationen investieren aktuell in das Thema KI, Amnesty International Deutschland zum Beispiel baut in Berlin ein Office auf, das sich dem Einsatz digitaler Methoden widmen soll. In London gibt es ein solches Büro bereits, Rasha Abdul-Rahim ist dort als Expertin tätig.

Ihre Sicht auf KI ist zwiegespalten: „Ja, sie kann uns bei unserer Arbeit helfen. Jedoch sehen wir schon heute, dass von Daten getriebene Systeme häufig auf Kosten von Minderheiten und sozial Benachteiligten operieren. Was kommt da noch auf uns zu, wenn die datengetriebenen Systeme in 20 Jahren noch wesentlich intelligenter sein werden?“

Allerdings gebe es eben auch die Option, dass KI die Welt besser, gerechter, freier mache. „Das zu realisieren, daran arbeiten wir.“ Seit 2017 nutzt Amnesty International zum Beispiel KI-Methoden, um Sexismus und Missbrauch gegenüber Frauen bei Twitter aufzudecken.

Beim Projekt Troll Patrol half die KI-Software ElementAI dabei, Millionen Tweets zu analysieren, die an Journalistinnen und Politikerinnen adressiert waren. Das Resultat: Knapp über sieben Prozent der Tweets zählten zur Kategorie „problematic“ oder „abusive“. Dabei offenbarte die Analyse, dass nicht-weiße und insbesondere schwarze Frauen deutlich häufiger solche Tweets empfangen. „Mithilfe der KI können wir nun belegen, wie häufig Frauen Opfer von Online-Missbrauch werden – und dass Twitter seiner Verantwortung, die Menschenrechte zu respektieren, nicht genügend gerecht wird.“

NGOs fehlt es an Data-Know-how

Unter den Menschenrechtsorganisationen ist Amnesty International ein großer Player, vielen kleineren NGOs fehlen dagegen das Know-how und Mitarbeiter*innen, die solche Projekte auf IT-Ebene begleiten. Die Initiative Data Science for Social Good (DSSG) mit Sitz in Berlin hilft, indem sie dieses Wissen vermittelt.

„Das nötige Know-how findet sich bei Data Scientists, die in der Wirtschaft tätig sind. Diese sind auch häufig bereit, ihre Fähigkeiten für den guten Zweck zur Verfügung zu stellen – und zwar pro bono“, sagt Sprecherin Ellen König. Also bringt DSSG die NGOs mit den KI-Spezialist*innen zusammen, in der Hoffnung, dass diese Netzwerke neue Projekte anstoßen.

„Die Möglichkeiten sind vielfältig“, sagt König. „Zum Beispiel lassen sich anhand von Mobilfunk- und Social-Media-Daten Vertreibungen und Migrationen dokumentieren und erfassen.“

KI könne auch helfen, Maßnahmen für den Schutz der Menschenrechte wirksamer zu machen. „Das maschinelle Lernen hilft dabei, die Merkmale und Bedürfnisse der betroffenen Gruppen besser zu verstehen.“ Auch ermöglichten es KI-Methoden, die Qualität der Arbeit zu bewerten: Wie wirken eigentlich die Maßnahmen? Wem wurde geholfen – und wo hat ein Ansatz nicht funktioniert?

„Die Flut an unstrukturierten Informationen wird immer gewaltiger“, sagt Rasha Abdul-Rahim von Amnesty International. „KI kann uns dabei helfen, in Sachen Menschenrechte den Durchblick zu bewahren.“