|
← Zurück ← Back

Ethischer KI-Einsatz in der Entwicklungszusammenarbeit Ethical AI Use in Development Cooperation

Leitlinien aus einem gemeinsamen Workshop „Für verantwortliche, faire und transparente KI in unserer NGO“ Guidelines from the joint workshop "For responsible, fair, and transparent AI in our NGO"

Diese zehn Punkte sind in einem internen Workshop mit Mitarbeitenden und Partnern entstanden und werden schrittweise umgesetzt – von der Projektplanung über Monitoring bis zur Kommunikation mit Zielgruppen. Sie sollen allen Beteiligten helfen, KI nur dort einzusetzen, wo sie Menschen unterstützt, Rechte schützt und unsere entwicklungspolitischen Ziele stärkt, ohne Gemeinschaften zu schaden oder sie zu bevormunden.

These ten points emerged from an internal workshop with staff and partners and are being implemented step-by-step – from project planning and monitoring to communication with target groups. They aim to help all involved parties use AI only where it supports people, protects rights, and strengthens our development policy goals without harming communities or patronizing them.

1. Verantwortung und Partizipation klären 1. Clarify Responsibility and Participation

Wir legen fest, wer für Auswahl, Einsatz und Kontrolle von KI verantwortlich ist – inklusive klarer Zuständigkeiten für Recht, Ethik und Datensicherheit. Betroffene Gemeinschaften werden, wo möglich, in Entscheidungen über KI-Anwendungen einbezogen.

We define who is responsible for the selection, use, and control of AI – including clear responsibilities for law, ethics, and data security. Affected communities are involved in decisions about AI applications wherever possible.

2. Einsatz an Mandat und Werten ausrichten 2. Align Use with Mandate and Values

KI wird nur eingesetzt, wenn sie unsere entwicklungspolitischen Ziele unterstützt und mit unseren Grundwerten wie Menschenwürde, Gerechtigkeit und Nichtschädigung vereinbar ist. Technische Möglichkeiten allein rechtfertigen keinen Einsatz.

AI is only used if it supports our development policy goals and is compatible with our core values such as human dignity, justice, and "do no harm". Technical possibilities alone do not justify deployment.

3. Zugang und Befugnisse begrenzen 3. Limit Access and Authority

Leistungsfähige KI-Werkzeuge stehen nur geschulten Personen mit berechtigtem Bedarf zur Verfügung, insbesondere wenn Entscheidungen Ressourcenverteilung oder Schutzbedarfe betreffen. Je höher das Risiko für Betroffene, desto restriktiver gestalten wir Rollen und Zugriffsrechte.

Powerful AI tools are available only to trained personnel with a legitimate need, especially when decisions affect resource distribution or protection needs. The higher the risk for those affected, the more restrictive we design roles and access rights.

4. Gemeinschaften, Kinder und vulnerable Gruppen schützen 4. Protect Communities, Children, and Vulnerable Groups

Beim Einsatz von KI achten wir besonders auf die Rechte und die Sicherheit von Kindern, marginalisierten Gruppen und Menschen in Krisensituationen. Wir vermeiden Anwendungen, die Abhängigkeiten verstärken, Stigmatisierung fördern oder lokale Akteure schwächen.

When using AI, we pay special attention to the rights and safety of children, marginalized groups, and people in crisis situations. We avoid applications that reinforce dependencies, promote stigmatization, or weaken local actors.

5. Daten vertraulich und fair nutzen 5. Use Data Confidentially and Fairly

Sensible Daten – etwa zu Gesundheit, Flucht, Armut oder politischen Einstellungen – werden nur erhoben und verarbeitet, wenn dies notwendig, rechtlich zulässig und von den Betroffenen verstanden und mitgetragen ist. Wir minimieren Datenmengen, anonymisieren konsequent und respektieren lokale und internationale Datenschutzstandards.

Sensitive data – such as on health, displacement, poverty, or political views – is collected and processed only if necessary, legally permissible, and understood and supported by those affected. We minimize data volumes, anonymize consistently, and respect local and international data protection standards.

6. Diskriminierung und Verzerrungen prüfen 6. Check for Discrimination and Bias

Vor dem Einsatz analysieren wir möglichst, ob Daten oder Modelle strukturelle Vorurteile enthalten, die etwa bestimmte Regionen, Ethnien oder Geschlechter systematisch benachteiligen. Auffällige Verzerrungen führen zu Anpassungen des Systems oder zum Verzicht auf den Einsatz.

Before deployment, we analyze whether data or models contain structural biases that systematically disadvantage certain regions, ethnicities, or genders. Significant biases lead to system adjustments or a decision against deployment.

7. KI vor Ort testen und begleiten 7. Test and Monitor AI Locally

KI-Anwendungen werden in Pilotphasen mit lokalen Teams und betroffenen Gemeinschaften erprobt, bevor sie breiter ausgerollt werden. Während des Einsatzes bleiben Menschen „in der Schleife“ und können KI-Vorschläge korrigieren oder übersteuern.

AI applications are tested in pilot phases with local teams and affected communities before being rolled out more broadly. During operation, humans remain "in the loop" and can correct or override AI suggestions.

8. Transparenz gegenüber Betroffenen und Partnern 8. Transparency towards Affected Parties and Partners

Wir informieren verständlich, wo und wofür KI eingesetzt wird, welche Rolle sie in Entscheidungen spielt und welche Grenzen sie hat. Partnerorganisationen und Gemeinschaften wissen, wie sie Entscheidungen hinterfragen und eine menschliche Überprüfung einfordern können.

We provide understandable information on where and for what purpose AI is used, what role it plays in decisions, and what its limits are. Partner organizations and communities know how to question decisions and request a human review.

9. Sicherheit, Notfallpläne und Rechenschaft 9. Security, Emergency Plans, and Accountability

Wir überwachen laufende KI-Anwendungen, dokumentieren Vorfälle und halten Notfallpläne bereit, um Systeme bei Problemen anzupassen oder abzuschalten. Verantwortlichkeiten für Fehler, Missbrauch und Schadensbegrenzung sind klar geregelt.

We monitor ongoing AI applications, document incidents, and maintain emergency plans to adjust or shut down systems in case of problems. Responsibilities for errors, misuse, and damage control are clearly regulated.

10. Lernen, teilen, weiterentwickeln 10. Learn, Share, Evolve

Wir reflektieren regelmäßig Erfahrungen mit KI in unseren Projekten, passen interne Regeln an neue Erkenntnisse und teilen gute Praxis mit Partnern und Netzwerken. So bleibt unser KI-Einsatz lernend, kontextsensibel und an menschenrechtlichen Standards orientiert.

We regularly reflect on experiences with AI in our projects, adapt internal rules to new findings, and share good practices with partners and networks. This ensures our AI use remains learning-oriented, context-sensitive, and aligned with human rights standards.

Anfrage Request