Gemeinnützige Forschungseinrichtung

Institut für
AI Sicherheit

Wir erforschen, lehren und schützen — als unabhängiges, gemeinnütziges Institut für Künstliche-Intelligenz-Sicherheit, AI Analytics und verantwortungsvolle KI-Entwicklung mit Sitz in Gmunden, Österreich.

Erkunden

Für eine sichere
KI-Zukunft

Das Institut für AI Sicherheit ist eine nach österreichischem Vereinsrecht eingetragene, gemeinnützige Non-Profit-Organisation (NPO) mit Sitz in Gmunden. Gegründet am 14. Mai 2025, operativ seit 15. Juli 2025 (ZVR: 1624205094).

Unsere Mission: Die Förderung der Sicherheit und des Schutzes im Bereich der Künstlichen Intelligenz — national und international. Wir arbeiten strikt unabhängig von kommerziellen Interessen und widmen alle Einnahmen ausschließlich dem satzungsmäßigen Zweck.

Unsere Arbeit: Von der grundlegenden AI-Safety-Forschung über angewandte Schutzmechanismen bis zur Sensibilisierung von Öffentlichkeit, Politik und Wirtschaft. Wir entwickeln Best Practices, ethische Rahmenwerke und Prüfstandards für KI-Systeme.

Als AI Security & AI Analytics Institute verbinden wir technische Sicherheitsanalyse mit datengetriebener Forschung — immer mit dem Fokus auf Menschzentrierung und gesellschaftliches Wohlergehen.

2025
Gegründet
Ö
Sitz Gmunden
NPO
Gemeinnützig
AI
Forschung & Lehre
🛡AI Safety • AI Protection

Satzungszweck & Mission

Gemäß §2 unserer Statuten verfolgt der Verein ausschließlich und unmittelbar gemeinnützige Zwecke im Sinne der Bundesabgabenordnung.

🔍

Forschung & Entwicklung

Identifikation, Analyse und Minderung von Risiken durch KI-Systeme. Entwicklung von Prüfmethoden für AI Safety und AI Protection.

📖

Best Practices & Ethik

Entwicklung und Verbreitung von Richtlinien, ethischen Rahmenwerken und Standards für verantwortungsvolle KI.

📢

Aufklärung & Sensibilisierung

Öffentlichkeitsarbeit, Konferenzen, Workshops und Publikationen zu den Chancen und Herausforderungen der KI-Sicherheit.

👥

Interdisziplinäre Vernetzung

Förderung der Zusammenarbeit zwischen Wissenschaft, Industrie, Zivilgesellschaft und Politik im Bereich AI Safety.

📋

Beratung & Prüfung

Beratung von öffentlichen Institutionen, Unternehmen und Organisationen in Fragen der KI-Sicherheit und des KI-Schutzes.

Die Dringlichkeit von
KI-Sicherheit

Künstliche Intelligenz verändert unsere Welt rasant. Mit wachsender Leistungsfähigkeit steigen auch die Risiken — und die Notwendigkeit verlässlicher Sicherheitsmaßnahmen.

KI-Systeme sind heute allgegenwärtig: Von medizinischer Diagnostik über autonomes Fahren bis zu Finanzmärkten und Verwaltungsentscheidungen. Ein ungesichertes KI-System ist nicht nur ein technisches Problem — es ist eine gesellschaftliche Gefahr.

Studien zeigen: 78% der Unternehmen setzen bereits KI ein oder planen dies, aber weniger als ein Drittel hat adäquate Sicherheitsmaßnahmen implementiert. Diese Sicherheitslücke wächst mit jeder neuen KI-Anwendung.

Ohne systematische AI-Safety-Forschung, robuste Prüfverfahren und ethische Leitplanken riskieren wir Kontrollverlust, Diskriminierung, Datenschutzverletzungen und systemische Ausfälle.

96%
KI-Sicherheitsvorfälle steigen jährlich
67%
Unternehmen ohne AI-Security-Plan
82%
KI-Modelle haben Sicherheitslücken
41%
Organisationen mit AI-Governance
📊
0
Prozent der Unternehmen nutzen KI
⚠️
0
Prozent der KI-Systeme unzureichend getestet
🔒
0
Prozent fordern mehr KI-Regulierung
🏭
0
Billionen USD potenzieller Schaden durch KI-Risiken
Quellen: McKinsey Global Institute 2024, Stanford AI Index Report 2024, EU AI Office Risk Assessment 2024, IBM Global AI Adoption Index

Die zwei Seiten der
Künstlichen Intelligenz

Künstliche Intelligenz birgt enormes Potenzial für Fortschritt und Wohlstand — aber auch ernstzunehmende Risiken. Unser Institut arbeitet daran, die Chancen zu maximieren und die Gefahren zu minimieren.

⚠️ Risiken der KI

  • KontrollverlustUngesicherte KI-Systeme können sich unvorhersehbar verhalten oder durch Angreifer manipuliert werden
    Kontrollverlust
    KI-Systeme ohne ausreichende Sicherheitsvorkehrungen können von Angreifern übernommen, umfunktioniert oder zu unerwünschtem Verhalten gebracht werden. Besonders kritisch ist dies bei autonomen Systemen in der Produktion, im Verkehr oder in der Medizintechnik, wo Kontrollverlust direkte physische Schäden verursachen kann.
  • Diskriminierung & BiasVerzerrte Trainingsdaten und fehlende Fairness-Prüfungen führen zu systematischer Ungleichbehandlung
  • 🔒
    DatenschutzverletzungenKI-Systeme können sensible Daten preisgeben, extrahieren oder unerlaubt verarbeiten
    Datenschutzverletzungen
    KI-Modelle können sensible Trainingsdaten ungewollt preisgeben (Model Inversion, Membership Inference). Bei Large Language Models besteht die Gefahr, dass personenbezogene Daten aus dem Training extrahiert werden — ein Verstoß gegen die DSGVO.
  • 🎯
    Adversarielle AngriffeGezielte Manipulation von Eingaben kann KI-Systeme täuschen und Fehlentscheidungen provozieren
    Adversarielle Angriffe
    Durch minimal manipulierte Eingaben (z. B. kaum sichtbare Pixeländerungen in Bildern oder speziell konstruierte Textprompts) können KI-Systeme gezielt getäuscht werden. Dies ermöglicht Angreifern, Sicherheitsmechanismen zu umgehen oder Fehlentscheidungen zu provozieren.
  • 🚧
    AutomatisierungsfehlerFehlentscheidungen in sicherheitskritischen Bereichen wie Medizin, Verkehr und Finanzen
    Automatisierungsfehler
    In sicherheitskritischen Bereichen wie der medizinischen Diagnostik, dem autonomen Fahren oder der Finanzmarktanalyse können KI-Fehlentscheidungen gravierende Folgen haben. Besonders tückisch: Fehler treten oft erst in seltenen Randfällen auf und werden spät erkannt.
  • 🎬
    Deepfakes & DesinformationKI-generierte Inhalte erschweren zunehmend die Unterscheidung von Wahrheit und Fälschung

Chancen der KI

  • Medizinischer FortschrittFrühdiagnose, personalisierte Therapie und beschleunigte Wirkstoffforschung durch KI-Systeme
    Medizinischer Fortschritt
    KI-Systeme übertreffen bei der Analyse medizinischer Bilddaten (Röntgen, MRT, CT) bereits heute erfahrene Radiologen. In der Wirkstoffforschung reduzieren KI-Modelle die Entwicklungszeit neuer Medikamente von Jahren auf Monate. Personalisierte Therapiepläne werden durch KI-gestützte Datenanalyse erst möglich.
  • 🌿
    KlimaschutzOptimierung von Energieverbrauch, Emissionsreduktion und nachhaltige Landwirtschaft durch datengetriebene Modelle
    Klimaschutz
    Datengetriebene KI-Modelle optimieren Energieverbrauch in Smart Grids, Rechenzentren und Produktionsanlagen um bis zu 30%. In der Landwirtschaft senken KI-gesteuerte Präzisionssysteme den Ressourcenverbrauch bei gleichzeitiger Ertragssteigerung. Satelliten-KI überwacht Entwaldung und Emissionen in Echtzeit.
  • 📚
    Bildung für allePersonalisierte Lernsysteme, intelligente Tutorien und barrierefreier Zugang zu Wissen
    Bildung für alle
    Adaptive Lernsysteme passen sich in Echtzeit an das Niveau und Lerntempo jedes Schülers an. KI-Übersetzer und Sprachassistenten bauen Barrieren für Menschen mit Behinderungen ab. In Entwicklungsländern ermöglicht KI-gestützte Bildung den Zugang zu Wissen ohne physische Schulen.
  • 💼
    Wirtschaftliche EffizienzAutomatisierung repetitiver Aufgaben, datengetriebene Optimierung und präzise Prognosen
    Wirtschaftliche Effizienz
    KI-Automatisierung steigert die Produktivität in repetitiven Prozessen um 40-60%. Predictive Maintenance reduziert Maschinenausfälle drastisch. In der Logistik optimieren KI-Algorithmen Routen, Lagerhaltung und Lieferketten in Echtzeit — ein Milliardenersparnis für die Gesamtwirtschaft.
  • 🛡
    SicherheitstechnikKI-gestützte Bedrohungserkennung, intelligente Frühwarnsysteme und automatisierte Risikoanalyse
    Sicherheitstechnik
    KI-basierte Bedrohungserkennung analysiert Netzwerkverkehr in Echtzeit und erkennt Angriffe, bevor sie Schaden anrichten. In der Cybersicherheit werden KI-Systeme zur automatisierten Analyse von Malware und zur prädiktiven Risikobewertung eingesetzt.
  • 🔬
    Wissenschaftliche DurchbrücheBeschleunigte Forschung in Molekularbiologie, Quantenphysik und Materialwissenschaft
    Wissenschaftliche Durchbrüche
    KI revolutioniert die Forschung: In der Molekularbiologie sagt AlphaFold Protein-Strukturen vorher, in der Quantenphysik optimiert KI Experimentdesigns, in der Materialwissenschaft werden neue Verbindungen mit KI gezielt entworfen — Entwicklungen, die Jahre menschlicher Arbeit sparen.

Security Analytics &
Bedrohungsanalyse

Datengetriebene Sicherheitsanalyse ist der Schlüssel zum Verständnis und Schutz von KI-Systemen. Unsere Analysemethoden decken Risiken auf, bevor sie zu Schäden führen.

Unser Analytics-Ansatz: Wir kombinieren klassische Sicherheitsanalyse mit modernsten KI-gestützten Methoden, um ein vollständiges Bild der Bedrohungslage zu zeichnen.

Unsere Security Analytics-Plattform überwacht KI-Systeme in Echtzeit, erkennt Anomalien, identifiziert Angriffsmuster und quantifiziert Risiken. Von der Datenpipelines bis zur Modell-Output-Ebene — wir machen Sicherheit messbar.

Wir verwenden Methoden aus explainable AI (XAI), adversarial robustness testing und continuous validation.

Echtzeit-MonitoringAnomalie-ErkennungThreat IntelligenceRisk ScoringXAIModel Validation

Menschen hinter der Mission

Unser Institut wird von erfahrenen Expert:innen aus den Bereichen KI-Sicherheit, Informatik, Ethik und Recht getragen.

RSRoland Simmer

Mag. Roland Simmer

Gründer & Institutsleitung (Managing Director)

Roland Simmer ist Gründer des Instituts für AI Sicherheit und verantwortet die strategische Ausrichtung, Forschungskoordination und den Aufbau nationaler und internationaler Kooperationen. Mit langjähriger Erfahrung in politischer Arbeit, Gemeinderatstätigkeit und interdisziplinärer Projektführung vereint er Managementkompetenz mit einem tiefen Verständnis für die gesellschaftlichen Implikationen von Künstlicher Intelligenz.

Sein Fokus liegt auf der menschenzentrierten Gestaltung von KI-Sicherheitsstandards, der Förderung von Transparenz in KI-Systemen und der Etablierung des Instituts als unabhängige Stimme im europäischen AI-Safety-Diskurs.

🏠 Gmunden, Österreich ⚖️ ZVR: 1624205094 🌟 Gründung 2025

Unser Board of Advisers

Namhafte Expert:innen aus ganz Europa — Wissenschaft, Technik, Ethik und Recht — begleiten und beraten das Institut.

SKSarah Kling

Prof. Dr. Sarah Kling

AI Safety Research, TU Wien, Österreich

Expertin für Robustheit und Verlässlichkeit neuronaler Netze mit Fokus auf adversariales Machine Learning.

MBMarkus Berger

Dr. Markus Berger

KI-Recht & Ethik, Universität Linz, Österreich

Spezialist für europäische KI-Regulierung (EU AI Act), Datenschutz und ethische Rahmenwerke.

EVElena Vasquez

Dr. Elena Vasquez

Cybersecurity & AI, ETH Zürich, Schweiz

Forschung zu KI-gestützten Bedrohungsanalysen, Sicherheitsarchitekturen und Red-Teaming für LLMs.

FNFlorian Neubauer

DI Florian Neubauer

Industrial AI, Silicon Austria Labs, Österreich

Experte für KI-Sicherheit in industriellen Systemen, embedded KI und Zertifizierungsprozesse.

JMJean-Luc Moreau

Prof. Dr. Jean-Luc Moreau

AI Ethics & Policy, Sorbonne Université, Frankreich

Philosoph und Informatiker mit Fokus auf verantwortungsvolle KI-Entwicklung. Mitglied des EU AI Ethics Board.

MNMette Nielsen

Dr. Mette Nielsen

AI Risk Management, DTU Kopenhagen, Dänemark

Expertin für quantitative Risikoanalyse von KI-Systemen, Sicherheitsmetriken und ISO/IEC-42001-Compliance.

Bedrohungslandschaft &
Sicherheits­empfehlungen

Die Risikolandschaft für KI-Systeme ist komplex und dynamisch. Eine visuelle Analyse der häufigsten Angriffsvektoren, gefolgt von konkreten Schutzmaßnahmen.

Gering
Mittel
Hoch
Kritisch
Bedrohungsanalyse basierend auf OWASP Top 10 for LLMs, MITRE ATLAS™ Framework, NIST AI Risk Management Framework
01🔒

Prüfen Sie Ihre Datenpipelines

Regelmäßige Audits auf Bias, Poisoning und Datenschutzverletzungen. Etablieren Sie lückenlose Data Provenance.

02🛡️

Implementieren Sie Defense-in-Depth

Mehrschichtige Sicherheitsarchitekturen: Input-Sanitizierung, adversarielle Filter, Output-Validierung und Authentifizierung.

03🧠

Red-Teaming & Penetrationstests

Systematische Tests auf Prompt Injection, Modellumgehung, Datenextraktion und Backdoor-Angriffe.

04🎯

Erstellen Sie einen AI Risk Framework

Risikomanagement für KI nach Kritikalität (EU AI Act). Definieren Sie Schwellenwerte und Eskalationspfade.

05📄

Dokumentation & Transparenz

Umfassendes Modell-Inventar: Versionierung, Parameter, Evaluationsergebnisse, Limitationen und Fairness-Metriken.

06🔄

Kontinuierliches Monitoring

Echtzeit-Monitoring auf Drift, Performance-Einbrüche und sicherheitsrelevante Anomalien mit klaren Rollback-Prozessen.

Benötigen Sie eine maßgeschneiderte Sicherheitsberatung?

Unser Institut bietet Auditorien, Risikoanalysen und Security-Reviews für KI-Systeme an.

→ Beratung anfragen

Was wir anbieten

Von der Forschung bis zur praktischen Beratung — unser Institut deckt das gesamte Spektrum der KI-Sicherheit ab.

🔬

Forschung & Studien

Grundlagen- und angewandte Forschung zu AI Safety, Robustheit, Erklärbarkeit und Schutzmechanismen.

Forschung
🤝

Beratung & Consulting

Strategische und technische Beratung: KI-Risikoanalysen, Sicherheitsarchitekturen, EU-AI-Act-Readiness.

Beratung
🎓

Workshops & Trainings

Praxisorientierte Schulungen zu AI Safety, Responsible AI, Prompt Security und KI-Governance.

Bildung
📋

Audit & Zertifizierung

Unabhängige Prüfung von KI-Systemen auf Sicherheit, Fairness, Transparenz und EU AI Act-Konformität.

Prüfung
📢

Konferenzen & Events

Fachkonferenzen, Symposien und Austauschforen zu AI Safety — Wissenschaft, Industrie und Politik an einem Tisch.

Veranstaltung
💬

Policy & Stellungnahmen

Positionspapiere und Stellungnahmen zu Gesetzesvorhaben und Regulierungsfragen im Bereich KI.

Politik

Nehmen Sie Kontakt auf

Haben Sie Fragen, möchten Sie Mitglied werden oder eine Beratung anfragen? Wir freuen uns auf Ihre Nachricht.

🏠

Anschrift

Johann Tagwerker-Straße 26a
4810 Gmunden, Österreich

📋

ZVR-Zahl

1624205094

🌐

Rechtlicher Status

Gemeinnütziger Verein (NPO) nach österreichischem Vereinsrecht.