Nachbericht: weconomy & Diversitec lead&learn – Österreichs Weg zu vertrauenswürdiger KI

Wie müssen wir uns im globalen KI-Wettbewerb positionieren, ohne unsere europäischen Grundwerte zu opfern? In der weconomy lead & learn Online Session in Kooperation mit Diversitec lieferten Expert*innen persönliche Einblicke und praxisnahe Lösungen – von Strategien über Akteur*innen bis hin zu ethischen Leitlinien für inklusive und vertrauenswürdige künstliche Intelligenz.

Ob am Weg zur Arbeit, beim Filtern von E-Mails oder Verfassen von Texten: Künstliche Intelligenz ist längst fester Bestandteil der Arbeitswelt und aus dem Alltag kaum mehr wegzudenken. Ständig greifen wir auf KI-basierte Hilfsmittel zurück, damit Aufgaben erleichtert, Prozesse beschleunigt werden und wir effizienter arbeiten können. Doch wer gestaltet die KI-Systeme eigentlich? Und vor allem: Für wen werden sie gestaltet und welche Werte sind in ihnen verankert?

Diese und noch viele weitere Fragen standen am 25. Februar 2026 im Mittelpunkt der weconomy lead&learn-Session. Die Online-Session fand in Zusammenarbeit mit Diversitec – leading innovation statt – der Bundesinitiative für Vielfalt als Innovationstreiber im österreichischen Technologiesektor, umgesetzt durch sheconomy.

Eine der drängendsten Fragen war dabei: Wie positioniert sich Österreich im globalen KI-Wettbewerb, ohne die europäischen Grundwerte zu opfern? Gemeinsam diskutierten die Speaker*innen und Teilnehmer*innen, welche rechtlichen Rahmenbedingungen, aber vor allem auch Innovationen es braucht, damit ein nachhaltiger Umgang ermöglicht wird. Und wie KI-Systeme durch mehr Diversität und Inklusion bereichert werden können.

Verantwortungsvoller Einsatz von KI

Carina Zehetmaier ist Unternehmerin, KI-Expertin, Juristin und Menschenrechtsfachfrau. In ihrer Keynote machte Zehetmaier klar: „AI Governance bringt viele neue Aufgaben mit sich, aber ich sehe sie vor allem als Chance und als Anstoß für Organisationen, sich mit zentralen Fragen verantwortungsvollen KI-Einsatzes auseinanderzusetzen“

Dabei ging sie auf den EU AI Act ein. Das EU-Gesetz ordnet KI-Systeme nach ihrem Risiko. Anwendungen, die Grundrechte verletzen, wie Social Scoring oder Echtzeit-Gesichtserkennungen, sind verboten. Hochrisiko-KI, wie etwa für Bewerber*innenauswahl oder Kreditprüfungen, müssen strenge Vorschriften erfüllen. Systeme mit begrenztem Risiko, wie Chatbots oder KI-generierte Inhalte, unterliegen Transparenzpflichten. Tools mit minimalem Risiko, wie Spamfilter oder Fotobearbeitung, haben hingegen nur geringe Regeln.

Zehetmaier betonte, dass der AI Act Innovation nicht stoppe, sondern Vertrauen schaffen soll. Denn nur sichere und nachvollziehbare KI könne ihr Potenzial voll entfalten. Sie warnte jedoch auch davor, dass die aktuelle KI-Regulierung zunehmend von der Angst geprägt sei, im internationalen Wettbewerb zurückzufallen. Der Innovationsdruck führe dazu, dass strengere Regeln schrittweise aufgeweicht würden. Dabei spiele vor allem der Einfluss großer Tech-Konzerne eine zentrale Rolle.

Aus menschenrechtlicher Perspektive sehe sie den EU AI Act daher kritisch: Obwohl häufig auf Grundrechte Bezug genommen wird, ist das Gesetz kein echtes Menschenrechtsinstrument, sondern eine Produktsicherheitsverordnung. Der Schutz Betroffener bleibe damit aus ihrer Sicht deutlich hinter den regulatorischen Ansprüchen zurück.

Praxisbeispiel aus Österreich: WienIT

Ein Beispiel aus der Praxis zeigt, wie verantwortungsvolle KI-Entwicklung in Österreich gelingen kann. Das Softwareunternehmen WienIT betreibt die digitale Infrastruktur für Konzerne wie Wien Energie, Wiener Linien und Wiener Netze. Seit über zwei Jahren verfolgt das Unternehmen eine breit angelegte KI-Strategie mit Fokus auf Inklusion, Sicherheit und Praxisnutzen für Mitarbeitende.

Larisa Stanescu ist Projektmanagerin, IT-Expertin und Leiterin des KI-Kompetenzcenters bei WienIT. Das Projekt zielt darauf ab, KI breit und verantwortungsvoll im Arbeitsalltag zu verankern. Seit über zwei Jahren steht allen Mitarbeitenden mit digitalem Arbeitsplatz Microsoft Copilot zur Verfügung, um Schatten-KI zu vermeiden und auch Personen ohne technischen Hintergrund einzubinden. „Mitarbeitende können jederzeit Ideen einreichen. Wir schauen uns an, welchen Mehrwert sie bringen, führen ein kurzes Gespräch und setzen die besten Ideen innerhalb von drei bis vier Monaten als ersten Test um“, sagt Larisa Stanescu.

Zusätzlich wird bei WienIT das interne KI-System „Gusti“ von einem Personenkreis mit bewusst unterschiedlichen Hintergründen (Fachbereich, Länge der Firmenzugehörigkeit, Geschlecht) getestet. Das System soll den Mitarbeitenden helfen, KI in ihrem Fachbereich einfacher zu nutzen. Statt komplizierte Befehle einzugeben, können sie die KI über einfache Oberflächen bedienen. Später soll Gusti entweder online oder direkt im Unternehmen betrieben werden, damit das Unternehmen die Kontrolle über die Daten behält.

Ein Team aus verschiedene Personen sorgt dafür, dass Gusti leicht verständlich und für alle zugänglich bleibt. Das KI-Kompetenzzentrum unterstützt das Projekt, in dem es die Regeln, Prozesse und Ideen bündelt. So wird sichergestellt, dass KI sinnvoll genutzt wird und die digitale Arbeit im Unternehmen besser funktioniert.

Europas Vorteil: Vielfalt und Vertrauen

Das Beispiel aus der Praxis zeigt, wie Europa im KI-Wettbewerb vor allem dort punkten kann, wo andere hinterherhinken: mit Vielfalt und Vertrauen. „Wir haben so viele Sprachen und Kulturkreise. Ich glaube, was wir schaffen sollten als Europa, ist Diversität als unseren Vorteil zu sehen und so viele Blickwinkel wie möglich zusammenbringen. Diese sollten wir dann aktiv in die KI miteinfließen lassen“, sagt Carina Zehetmaier.

Statt auf technologische Vorherrschaft bei großen Sprachmodellen zu setzen, sollte Europa auf digitale Souveränität bauen: auf die Fähigkeit, KI-Systeme selbst zu betreiben, anzupassen und im Krisenfall unabhängig zu bleiben.

Ein entscheidender Unterschied liegt auch im Entwicklungsansatz: KI soll nicht nur für eine bestimmte Zielgruppe gebaut werden, sondern all jene berücksichtigen, die von ihr betroffen sind. Divers zusammengesetzte Teams und die Einbindung verschiedener Stakeholder helfen, Verzerrungen früh zu erkennen.

Europas Chance liegt damit weniger in Größe und im Tempo, sondern in Qualität, Fairness und gesellschaftlicher Verantwortung. Wenn viele Stimmen gehört werden, kann Diversität zum echten Wettbewerbsvorteil am KI-Markt werden.

artikel teilen

aktuelle artikel