WE ARE HIRING
Jetzt offene Stellen entdecken

KI-Transparenz- und Compliance-Erklärung für den Notes Auditor

Version: 1.0
Letzte Aktualisierung: 12.02.2025

1. Überblick und Zweck

Zweck:

Diese Erklärung beschreibt, wie der Notes Auditor künstliche Intelligenz (KI) zur Unterstützung von Prüfprozessen einsetzt, erläutert deren Funktionalität und Grenzen und definiert die Verantwortung der Nutzer*innen. Sie dient der Transparenz, dem Vertrauensaufbau und der Unterstützung von Prüferinnen bei der Einhaltung des EU AI Acts sowie anderer relevanter Vorschriften.

Geltungsbereich:

Der Notes Auditor nutzt KI als ein Unterstützungstool mit begrenztem Risiko zur Prüfung von Anhängen, Lageberichten und Nachhaltigkeitsberichten. Die Ergebnisse sind beratender Natur und müssen von qualifizierten Fachkräften validiert werden.

2. KI-Funktionalität und Rolle im Prüfprozess

Einsatz der KI:

  • Datenanalyse & Validierung: KI automatisiert die Validierung von Daten, gleicht Finanzzahlen ab, erkennt Abweichungen und schlägt Nachweise vor.
  • Checklisten-Unterstützung: Durch Lernen aus vergangenen Prüfungen empfiehlt die KI Antworten und relevante Verweise.
  • Versionskontrolle & Änderungsverfolgung: KI-generierte Beiträge, Versionen und Änderungen werden transparent dokumentiert.
  • Numerische Verarbeitung: Die KI identifiziert finanzielle Kennzahlen mit einer Genauigkeit von 97,4 % und hebt Unstimmigkeiten hervor.
  • Erkennung von Compliance-Risiken: Die KI analysiert Lageberichte vorläufig, um potenzielle Compliance-Risiken und fehlende Angaben zu identifizieren.
  • Dokumentenkontinuität: Automatische Verknüpfung von Referenzen für eine nahtlose Prüfung.

Einstufung als begrenztes Risiko:

Gemäß des risikobasierten Ansatzes des EU AI Acts wird die KI im Notes Auditor als "begrenzt riskant" eingestuft. Sie dient der Unterstützung, ersetzt jedoch nicht die menschliche Entscheidungsfindung.

3. Transparenz, Grenzen und Nutzerverantwortung

Transparenzmaßnahmen:

  • Visuelle Markierung: Alle KI-generierten Inhalte sind in der Anwendung gelb hervorgehoben.
  • Prüfpfade: Das System speichert detaillierte Protokolle zu KI-Entscheidungen, Datenquellen und nachträglichen Änderungen durch Nutzer*innen.
  • Regelmäßige Updates: Das KI-Modell und die zugrundeliegenden Datensätze werden periodisch aktualisiert.

Grenzen:

  • Beratender Charakter: KI-Vorschläge basieren auf Mustererkennung, historischen Prüfdaten und vordefinierten Datensätzen und erfassen nicht alle regulatorischen Feinheiten.
  • Daten- & algorithmische Grenzen: Trotz hoher Genauigkeit kann die KI nicht alle regulatorischen Anforderungen antizipieren und ersetzt keine professionelle Einschätzung.
  • Bias & Fehler: Nutzer*innen sollten sich der Möglichkeit von Verzerrungen oder Fehlern bewusst sein. Alle KI-Ergebnisse müssen anhand aktueller Vorschriften überprüft werden.

Nutzerverantwortung:

  • Kritische Prüfung: Prüfer*innen müssen alle KI-generierten Inhalte sorgfältig überprüfen und validieren.
  • Einhaltung der Vorschriften: Die endgültigen Prüfberichte müssen den aktuellen lokalen und internationalen Standards entsprechen.
  • Feedback: Nutzer*innen werden ermutigt Ungenauigkeiten oder Einschränkungen der KI zu melden.

4. Menschliche Aufsicht und Verantwortlichkeit

  • Human-in-the-Loop: Die KI unterstützt menschliche Expert*innen, ersetzt sie jedoch nicht. Die endgültige Verantwortung bleibt bei den Prüfer*innen.
  • Verantwortlichkeit: Alle Entscheidungen basierend auf KI-generierten Inhalten unterliegen menschlicher Prüfung.
  • Risikominderung: Nutzer*innen sollten etablierte Risikomanagementprotokolle befolgen und bei Unsicherheiten zusätzliche Fachmeinungen einholen.

5. Nutzerbenachrichtigung und Support

Hilfe und Dokumentation:

  • Hilfebereich: Ausführliche Dokumentation innerhalb der Anwendung zu KI-Funktionen und deren Nutzung.
  • Online-Ressourcen: Detaillierte Informationen unter yourcompany.com/ai-info.
  • Support-Kontakt: Bei Fragen oder Bedenken kontaktieren Sie unser Support-Team unter support@dnl.ai.

6. Einhaltung des EU AI Acts und anderer Vorschriften

Die KI-Funktionalitäten des Notes Auditors entsprechen den Vorgaben des EU AI Acts:

  • Risikobewertung: Regelmäßige Überprüfung zur Sicherstellung der Einstufung als "begrenzt riskant".
  • Transparenzanforderungen: Klare Kommunikation der Rolle und Grenzen der KI.
  • Menschliche Aufsicht: Alle KI-gestützten Analysen unterliegen menschlicher Kontrolle.

Nutzer*innen werden daran erinnert, dass die kontinuierliche Überprüfung der KI-Leistung und die Einhaltung aktueller Vorschriften essenziell sind. Diese Erklärung wird regelmäßig aktualisiert, um regulatorische Änderungen und Verbesserungen in der KI-Technologie zu berücksichtigen.

Durch die Nutzung des Notes Auditors bestätigen Sie, dass Sie die oben stehende KI-Transparenz- und Compliance-Erklärung gelesen, verstanden und akzeptiert haben. Ihr kontinuierliches Feedback ist entscheidend für die Aufrechterhaltung der Zuverlässigkeit und Integrität unserer KI-Systeme.

Jetzt kontaktieren

Let's talk

Danke für Ihre Nachricht.
Unser Team wird sich mit ihnen in Verbindung setzen.
Oops! Something went wrong while submitting the form.