Wir erforschen, lehren und schützen — als unabhängiges, gemeinnütziges Institut für Künstliche-Intelligenz-Sicherheit, AI Analytics und verantwortungsvolle KI-Entwicklung mit Sitz in Gmunden, Österreich.
Das Institut für AI Sicherheit ist eine nach österreichischem Vereinsrecht eingetragene, gemeinnützige Non-Profit-Organisation (NPO) mit Sitz in Gmunden. Gegründet am 14. Mai 2025, operativ seit 15. Juli 2025 (ZVR: 1624205094).
Unsere Mission: Die Förderung der Sicherheit und des Schutzes im Bereich der Künstlichen Intelligenz — national und international. Wir arbeiten strikt unabhängig von kommerziellen Interessen und widmen alle Einnahmen ausschließlich dem satzungsmäßigen Zweck.
Unsere Arbeit: Von der grundlegenden AI-Safety-Forschung über angewandte Schutzmechanismen bis zur Sensibilisierung von Öffentlichkeit, Politik und Wirtschaft. Wir entwickeln Best Practices, ethische Rahmenwerke und Prüfstandards für KI-Systeme.
Als AI Security & AI Analytics Institute verbinden wir technische Sicherheitsanalyse mit datengetriebener Forschung — immer mit dem Fokus auf Menschzentrierung und gesellschaftliches Wohlergehen.
Gemäß §2 unserer Statuten verfolgt der Verein ausschließlich und unmittelbar gemeinnützige Zwecke im Sinne der Bundesabgabenordnung.
Identifikation, Analyse und Minderung von Risiken durch KI-Systeme. Entwicklung von Prüfmethoden für AI Safety und AI Protection.
Entwicklung und Verbreitung von Richtlinien, ethischen Rahmenwerken und Standards für verantwortungsvolle KI.
Öffentlichkeitsarbeit, Konferenzen, Workshops und Publikationen zu den Chancen und Herausforderungen der KI-Sicherheit.
Förderung der Zusammenarbeit zwischen Wissenschaft, Industrie, Zivilgesellschaft und Politik im Bereich AI Safety.
Beratung von öffentlichen Institutionen, Unternehmen und Organisationen in Fragen der KI-Sicherheit und des KI-Schutzes.
Künstliche Intelligenz verändert unsere Welt rasant. Mit wachsender Leistungsfähigkeit steigen auch die Risiken — und die Notwendigkeit verlässlicher Sicherheitsmaßnahmen.
KI-Systeme sind heute allgegenwärtig: Von medizinischer Diagnostik über autonomes Fahren bis zu Finanzmärkten und Verwaltungsentscheidungen. Ein ungesichertes KI-System ist nicht nur ein technisches Problem — es ist eine gesellschaftliche Gefahr.
Studien zeigen: 78% der Unternehmen setzen bereits KI ein oder planen dies, aber weniger als ein Drittel hat adäquate Sicherheitsmaßnahmen implementiert. Diese Sicherheitslücke wächst mit jeder neuen KI-Anwendung.
Ohne systematische AI-Safety-Forschung, robuste Prüfverfahren und ethische Leitplanken riskieren wir Kontrollverlust, Diskriminierung, Datenschutzverletzungen und systemische Ausfälle.
Künstliche Intelligenz birgt enormes Potenzial für Fortschritt und Wohlstand — aber auch ernstzunehmende Risiken. Unser Institut arbeitet daran, die Chancen zu maximieren und die Gefahren zu minimieren.
Datengetriebene Sicherheitsanalyse ist der Schlüssel zum Verständnis und Schutz von KI-Systemen. Unsere Analysemethoden decken Risiken auf, bevor sie zu Schäden führen.
Unser Analytics-Ansatz: Wir kombinieren klassische Sicherheitsanalyse mit modernsten KI-gestützten Methoden, um ein vollständiges Bild der Bedrohungslage zu zeichnen.
Unsere Security Analytics-Plattform überwacht KI-Systeme in Echtzeit, erkennt Anomalien, identifiziert Angriffsmuster und quantifiziert Risiken. Von der Datenpipelines bis zur Modell-Output-Ebene — wir machen Sicherheit messbar.
Wir verwenden Methoden aus explainable AI (XAI), adversarial robustness testing und continuous validation.
Unser Institut wird von erfahrenen Expert:innen aus den Bereichen KI-Sicherheit, Informatik, Ethik und Recht getragen.

Roland Simmer ist Gründer des Instituts für AI Sicherheit und verantwortet die strategische Ausrichtung, Forschungskoordination und den Aufbau nationaler und internationaler Kooperationen. Mit langjähriger Erfahrung in politischer Arbeit, Gemeinderatstätigkeit und interdisziplinärer Projektführung vereint er Managementkompetenz mit einem tiefen Verständnis für die gesellschaftlichen Implikationen von Künstlicher Intelligenz.
Sein Fokus liegt auf der menschenzentrierten Gestaltung von KI-Sicherheitsstandards, der Förderung von Transparenz in KI-Systemen und der Etablierung des Instituts als unabhängige Stimme im europäischen AI-Safety-Diskurs.
Namhafte Expert:innen aus ganz Europa — Wissenschaft, Technik, Ethik und Recht — begleiten und beraten das Institut.

Expertin für Robustheit und Verlässlichkeit neuronaler Netze mit Fokus auf adversariales Machine Learning.

Spezialist für europäische KI-Regulierung (EU AI Act), Datenschutz und ethische Rahmenwerke.

Forschung zu KI-gestützten Bedrohungsanalysen, Sicherheitsarchitekturen und Red-Teaming für LLMs.

Experte für KI-Sicherheit in industriellen Systemen, embedded KI und Zertifizierungsprozesse.

Philosoph und Informatiker mit Fokus auf verantwortungsvolle KI-Entwicklung. Mitglied des EU AI Ethics Board.

Expertin für quantitative Risikoanalyse von KI-Systemen, Sicherheitsmetriken und ISO/IEC-42001-Compliance.
Die Risikolandschaft für KI-Systeme ist komplex und dynamisch. Eine visuelle Analyse der häufigsten Angriffsvektoren, gefolgt von konkreten Schutzmaßnahmen.
Regelmäßige Audits auf Bias, Poisoning und Datenschutzverletzungen. Etablieren Sie lückenlose Data Provenance.
Mehrschichtige Sicherheitsarchitekturen: Input-Sanitizierung, adversarielle Filter, Output-Validierung und Authentifizierung.
Systematische Tests auf Prompt Injection, Modellumgehung, Datenextraktion und Backdoor-Angriffe.
Risikomanagement für KI nach Kritikalität (EU AI Act). Definieren Sie Schwellenwerte und Eskalationspfade.
Umfassendes Modell-Inventar: Versionierung, Parameter, Evaluationsergebnisse, Limitationen und Fairness-Metriken.
Echtzeit-Monitoring auf Drift, Performance-Einbrüche und sicherheitsrelevante Anomalien mit klaren Rollback-Prozessen.
Unser Institut bietet Auditorien, Risikoanalysen und Security-Reviews für KI-Systeme an.
→ Beratung anfragenVon der Forschung bis zur praktischen Beratung — unser Institut deckt das gesamte Spektrum der KI-Sicherheit ab.
Grundlagen- und angewandte Forschung zu AI Safety, Robustheit, Erklärbarkeit und Schutzmechanismen.
ForschungStrategische und technische Beratung: KI-Risikoanalysen, Sicherheitsarchitekturen, EU-AI-Act-Readiness.
BeratungPraxisorientierte Schulungen zu AI Safety, Responsible AI, Prompt Security und KI-Governance.
BildungUnabhängige Prüfung von KI-Systemen auf Sicherheit, Fairness, Transparenz und EU AI Act-Konformität.
PrüfungFachkonferenzen, Symposien und Austauschforen zu AI Safety — Wissenschaft, Industrie und Politik an einem Tisch.
VeranstaltungPositionspapiere und Stellungnahmen zu Gesetzesvorhaben und Regulierungsfragen im Bereich KI.
PolitikHaben Sie Fragen, möchten Sie Mitglied werden oder eine Beratung anfragen? Wir freuen uns auf Ihre Nachricht.
Johann Tagwerker-Straße 26a
4810 Gmunden, Österreich
1624205094
Gemeinnütziger Verein (NPO) nach österreichischem Vereinsrecht.