Christoph Bräunlich
30.07.2025
Künstliche Intelligenz in Europa – zwischen Effizienz, Regulierung und digitaler Souveränität
Europa geht mit dem EU AI Act in puncto Künstliche Intelligenz einen eigenen Weg, der auf ethischen Prinzipien und Regulierung beruht. Ab 2. August 2025 treten neue Transparenz- und Governance-Vorgaben der europäischen AI-Verordnung in Kraft. Doch das Spannungsfeld zwischen Kontrolle und Innovationskraft stellt Politik und Wirtschaft vor grosse Herausforderungen.


Künstliche Intelligenz ist derzeit eines der zentralen Themen in der Wirtschaft. Wer heute noch auf das Label «AI» und damit schnelle Prozesse, Effizienzgewinne und innovative Cross- und Upselling-Potenziale verzichtet, kommt schnell in den Ruf, den Zug der Zeit zu verpassen. Doch der AI-Hype allein reicht nicht aus, um Künstliche Intelligenz erfolgreich im Unternehmen zu etablieren.
Der EU AI Act macht deutlich: Wir müssen jeden Use Case mit einer Risikobewertung betrachten.
Es geht um ein wichtiges Ziel: Wie können AI-Systeme ihr volles Potenzial entfalten und gleichzeitig verantwortungsvoll gestaltet und eingesetzt werden?
Wir bei BSI Software verstehen die Use Case-Betrachtung auch immer als Chancenbewertung mit Win-Win-Potenzial.
Ein Beispiel, wie Transparenz und Selbstbestimmung in der AI-Anwendung sichergestellt werden kann: Schon 2017 haben wir AI Agents gebaut, die unsere Kunden gezielt bei der «Eingangspost» unterstützen, zum Beispiel zum Thema Werbemittelabbestellung. Kunden, die einen Katalog per E-Mail abbestellen wollen, bekommen automatisiert folgende Antwort:
«Unser System hat erkannt (Transparenz), dass du den Katalog abbestellen möchtest. Wenn das nicht zutrifft, klicke auf diesen Link, dann kümmert sich ein Mitarbeiter oder eine Mitarbeiterin darum (Selbstbestimmung)»
«Transparenz, Verantwortung und ethischer Diskurs: BSI Software ging schon früh mit ethischen Grundsätzen regulatorischen Anforderungen voraus»
Das europäische AI-Verständnis basiert auf Transparenz: Alle von einem AI-System betroffenen Personen müssen die Auswirkungen der AI verstehen können. Das ist besonders relevant im Kontext von CRM- und CX-Systemen: Wenn beispielsweise ein AI-Modul eine Produktempfehlung oder Next-Best-Action generiert, muss erkennbar sein, auf welcher Grundlage diese Entscheidung getroffen wurde – etwa auf Basis von Kaufverhalten, Interaktionen oder Segmentzugehörigkeit.
BSI Software hat früh die ethischen Anforderungen an AI erkannt. Lange bevor der EU AI Act entworfen wurde, hat BSI einen unternehmensweiten Code of Conduct AI etabliert, der ethische Prinzipien wie Schadensvermeidung, Fairness, Selbstbestimmung, Transparenz, Verantwortung und ethischen Diskurs verbindlich verankert. Bei BSI Software dokumentieren und kommunizieren wir beispielsweise transparent, wie AI-Systeme entwickelt und eingesetzt werden und auf welchen Daten ein AI-System trainiert wurde. Ein Alleinstellungsmerkmal unserer AI Agents ist die integrierte Chat-Funktion, über die der AI Agent zu seinem Vorgehen befragt werden kann (zum Beispiel «Warum hast du dieser Kundin Produkt X empfohlen?»).
Um sicherzustellen, dass unsere Werte nicht nur formuliert, sondern auch gelebt werden, haben wir intern eine Ethics Enabler-Rolle geschaffen. Die Ethics Enabler unterstützen unsere AI-Projekte unabhängig von ihrer Rolle im Unternehmen – ob Data Scientist oder Projektleitung – und stellen sicher, dass jede Entscheidung unseren ethischen Anforderungen genügt. Jeder Use Case wird so vor dem Produktivstart sorgfältig betrachtet, sodass Unternehmen regulatorische Anforderungen einhalten, Fairness sicherstellen und gleichzeitig das Vertrauen ihrer Kundinnen und Kunden stärken können.
Darüber hinaus ist BSI Software Träger des Data Fairness Labels von SWISS INSIGHTS, das uns bei der strukturierten Bewertung von Daten, Modellen und deren Auswirkungen hilft. In jedem produktiv eingesetzten AI-Projekt arbeiten wir mit einem standardisierten Verfahren, das Transparenz, Verantwortung und ethischen Diskurs in jeder Projektphase verankert.
Digitale Souveränität als europäisches Ziel
Der EU AI Act ist ein gutes Beispiel für den Unterschied in der Denkweise zwischen Europa und den USA. Dort stehen in erster Linie die potenziellen Vorteile von AI im Fokus – etwa Effizienzsteigerungen durch Automatisierung, neue Geschäftsmodelle durch generative AI, Wettbewerbsvorteile im internationalen Technologierennen sowie Chancen zur Skalierung digitaler Services in Bereichen wie Kundenservice, Bildung oder Medizin. Mehr noch: Herausforderungen wie algorithmische Verzerrungen, Erklärbarkeit komplexer Modelle oder der Umgang mit urheberrechtlich geschütztem Trainingsmaterial werden in den USA häufig nicht primär als regulatorisches Risiko verstanden. Stattdessen versucht man, solche Probleme mit technologischen Lösungen wie Bias-Mitigations-Frameworks oder Explainability-Tools zu beheben. Aber diese technischen Lösungen sind höchstens ein Hilfsmittel, um ethische AI-Anwendungen zu entwickeln. In der Realität und unserem europäischen Wertebewusstsein, müssen wir jeden Use Case separat bewerten und so verbessern, dass er unseren Ansprüchen genügt.
Regulatorik im Vergleich: Blick über den Tellerrand
Die grössten und einflussreichsten proprietären AI-Modelle stammen derzeit aus den USA und in Europa wächst die Sorge über die starke Konzentration der Sprachmodell-Entwicklung auf wenige US-Unternehmen. In den USA werden ethische und gesellschaftliche Fragen rund um AI zwar diskutiert – etwa in akademischen Netzwerken, NGO-Initiativen oder Policy-Kreisen rund um Organisationen wie das Center for Humane Technology. Im Unterschied zu Europa findet die Problemdiskussion jedoch seltener auf regulatorischer Ebene statt, sondern wird stärker durch Unternehmen, Medien und Zivilgesellschaft geprägt. China dagegen verfolgt einen eigenen Ansatz, der nicht einschränkt, wie die chinesischen AI-Modelle verwendet werden dürfen. Alle bekannten chinesischen Modelle stehen als Open Weights zum Download zur Verfügung. Sie können also verändert und in Europa betrieben werden. Allerdings werden generative Sprachmodelle vor dem öffentlichen Einsatz durch die chinesische Cyberspace Administration (CAC) genehmigt, um sicherzustellen, dass die Modelle mit den „Kernwerten“ Chinas übereinstimmen. Es muss sorgfältig geprüft werden, ob diese Modelle für den jeweiligen Use Case geeignet sind.
Liberté, Flexibilité, Souveraineté: Europa muss sich unabhängig machen
Viele europäische Unternehmen und politische Akteure fordern digitale Souveränität: Europa benötigt eigene AI-Algorithmen und Sprachmodelle, um nicht auf die Lösungen aus den USA angewiesen zu sein – die unter geopolitischen Spannungen zunehmend als Risiko wahrgenommen werden. Die US-Regierung ist in der Lage, den Zugang zu Softwarediensten einzuschränken oder Accounts gezielt zu sperren – auch ohne richterlichen Beschluss. Microsoft hat offiziell bestätigt, dass ein Zugriff von US-Behörden auf EU-Daten nicht vollständig ausgeschlossen werden kann. Nachrichten wie diese zeigen, wie abhängig internationale Akteure von amerikanischen Plattformen geblieben sind – ein Risiko, das zunehmend auch europäische Unternehmen ernst nehmen.
Deshalb sollte Europa seine Stärken betonen. In der EU gibt es weltweit führende AI-Spitzenforschung und eine Open-Source-Kultur, die viele innovative Initiativen und Start-ups hervorbringt. So zählt etwa das European Laboratory for Learning and Intelligent Systems (ELLIS) zu den renommiertesten Forschungsnetzwerken für moderne AI in Europa. Mit Standorten in Tübingen, Zürich, Wien und weiteren Städten vernetzt es exzellente Forschende aus ganz Europa – etwa im Bereich erklärbare AI, robustes maschinelles Lernen oder nachhaltige Modellarchitekturen. Auch die ETH Zürich gilt als international führend, wenn es um Grundlagenforschung für skalierbare und verantwortungsvolle AI geht. Im Spätsommer 2025 wird ein öffentlich entwickeltes grosses Open-Source-Sprachmodell veröffentlicht – gemeinsam entwickelt von Forschenden der EPFL, der ETH Zürich und dem Swiss National Supercomputing Centre (CSCS). Dieses LLM wird vollständig offen zugänglich sein, was eine breite Nutzung ermöglichen und Innovationen in Wissenschaft, Gesellschaft und Wirtschaft fördern soll. Ein anderes Beispiel ist das Projekt OpenEuroLLM, ein paneuropäisches Open‑Source‑AI‑Projekt, das von einem Konsortium aus 20 Forschungseinrichtungen, Unternehmen und EuroHPC‑Rechenzentren koordiniert wird.
Grundsätzlich gilt: Gute Modelle haben sehr gute Daten. Wer seine Trainingsdaten nicht offenlegt, kann deutlich mehr Grauzonen – sprich: geschützte Daten – ausloten. Hier muss sich also noch zeigen, wie effektiv die Open-Source-Modelle sein werden. Wie viele andere in Europa fiebert BSI mit den europäischen Modellen mit. Wir gehen aber davon aus, dass diese LLMs sich in Nischenbereichen etablieren werden. Zum Beispiel für spezielle Sprach-Anwendungen, etwa die kroatische und rätoromanische Sprache.
Regulierung als Risiko und Chance
Vor den europäischen Staaten liegt ein Balanceakt. Kritiker des EU AI Acts warnen vor Überregulierung und befürchten, dass die komplexen Regeln zu Wettbewerbsnachteilen führen. Doch die Fokussierung auf ethische Standards kann auch zu einem Vorteil werden. So könnte Europa eine weltweite Führungsrolle im Bereich sichere und vertrauenswürdige AI übernehmen. Die europäischen Staaten könnten ein AI-Ökosystem aufbauen, das auf Menschenrechten und Grundwerten basiert und allen Beteiligten Vorteile bringt.
Dann können Europas ethische Werte, gestützt auf eine ausgewogene Regulierung, zu einem echten Wettbewerbsfaktor werden.
Hat dir der Artikel gefallen? Weitere Insights bietet das Whitepaper «Die Transformation des Kundenkontakts durch AI Agents in Banken und Versicherungen».

Sprich einfach mit uns
Wir sind jederzeit und sehr gern für dich da.