

Beim „Digitaler Humanismus in der Praxis Award“ wurde Sophie Martinetz, Vorständin und Gründerin von Women in Law Austria, Gründerin von Future-Law und Leiterin des WU Legal Tech Centers, in der Kategorie „Personen“ mit dem 2. Platz ausgezeichnet. Im Interview spricht sie darüber, warum diese Ehrung für sie vor allem eine Anerkennung für Haltung und langfristiges Wirken ist, was „Digitaler Humanismus in der Praxis“ im Arbeitsalltag bedeutet und weshalb ihr Prinzip „Human in Command“ weit über gängige Schlagworte wie „Human in the Loop“ hinausgeht.
Sophie, herzlichen Glückwunsch zum 2. Platz! Du wurdest in der Kategorie „Personen“ ausgezeichnet. Was bedeutet diese Auszeichnung für dich?
Vielen Dank! Diese Kategorie ist für mich besonders bedeutend, weil sie nicht ein einzelnes Projekt auszeichnet, sondern Haltung, Verantwortung und langfristiges Wirken. Es geht darum, digitalen Humanismus nicht nur zu diskutieren, sondern ihn im beruflichen und gesellschaftlichen Handeln konsequent zu leben – sei es durch konkrete Initiativen, Führungsarbeit oder durch den öffentlichen Diskurs. Genau das versuche ich seit vielen Jahren umzusetzen.
Was bedeutet „Digitaler Humanismus in der Praxis“ für dich – gerade im Arbeitskontext?
Digitaler Humanismus ist für mich kein abstraktes Konzept, sondern eine sehr konkrete Leitlinie für Entscheidungen. Es geht darum, Technologie so einzusetzen, dass sie Menschen stärkt, nicht ersetzt. Gerade in der Arbeit bedeutet das: Technologie soll uns unterstützen, bessere Entscheidungen treffen, Freiräume schaffen und Verantwortung ermöglichen – nicht uns zu reinen Ausführenden machen.
Ich sehe leider oft, dass Menschen zu „Systembedienern“ werden. Genau das widerspricht dem digitalen Humanismus. Die zentrale Frage ist immer: Welche Auswirkungen hat Technologie auf Menschen, auf Organisationen und auf unsere Gesellschaft?
Du hast das Prinzip „Human in Command“ geprägt. Wie unterscheidet es sich von „Human in the Loop“?
„Human in the Loop“ wird oft als Lösung präsentiert, bedeutet in der Praxis aber häufig, dass Menschen nur noch Häkchen setzen, Ergebnisse bestätigen oder eingreifen, wenn etwas schiefläuft. Das ist eine sehr reduzierte Rolle – und ehrlich gesagt auch eine gefährliche Entwicklung.
„Human in Command“ geht einen entscheidenden Schritt weiter: Der Mensch gibt die Richtung vor. Technologie dient uns – nicht umgekehrt. Wir treffen die wesentlichen Entscheidungen bewusst, proaktiv und verantwortungsvoll.
Der Unterschied ist zentral: Beim einen kontrollieren wir Technologie nachträglich. Beim anderen gestalten wir sie von Anfang an – mit rechtlichen, ethischen und gesellschaftlichen Leitplanken.
Wie setzt du diesen Ansatz konkret in deiner Arbeit um?
Ich versuche, „Human in Command“ in unterschiedlichen Kontexten strukturell zu verankern. Mit Future-Law arbeite ich seit rund zehn Jahren daran, dieses Prinzip in KI-Governance und Trainings für Kanzleien, Rechtsabteilungen und Führungskräfte zu übersetzen.
Am WU Legal Tech Center, das ich 2021 gegründet habe, verbinden wir Forschung und Lehre – mit einem Legal-Tech-&-KI-Zertifikat, internationalen Konferenzen und wissenschaftlichen Arbeiten zu KI, Rechtsstaatlichkeit und Menschenrechten. Mehr als 500 Studierende wurden dort bereits ausgebildet und bringen dieses Denken in die Praxis.
Und bei Women in Law habe ich die Fokusgruppe „KI & Tech“ initiiert, um insbesondere die Teilhabe von Frauen in KI-Entscheidungsprozessen zu stärken und Themen wie Gender Bias sichtbar zu machen.
Was mir wichtig ist: Es geht immer darum, Brücken zu bauen – zwischen Recht, Technologie und Gesellschaft.
Welche konkrete Wirkung siehst du durch deine Arbeit?
Wirkung zeigt sich für mich immer dann, wenn sich Strukturen verändern. Durch Publikationen, Keynotes und Medienarbeit – etwa im Standard oder in der Presse – konnte ich „Human in Command“ als Leitprinzip über juristische Fachkreise hinaus etablieren.
Mit dem Buch „KI im Unternehmen“ (2026, mit über 40 Autoren) bringen wir dieses Denken direkt in die Führungsetagen. Gleichzeitig entsteht durch die Ausbildung am WU Legal Tech Center eine neue Generation von Jurist, die KI nicht nur anwendet, sondern kritisch und verantwortungsvoll reflektiert.
Auch im wissenschaftlichen Diskurs – etwa durch Konferenzen wie „Automating the Rule of Law“ oder „genAI in legal practice – a fundamental rights perspective“ – sehen wir, dass sich die Perspektive auf KI im Recht nachhaltig verändert.
Du giltst als starke Stimme im Bereich Digital Humanism. Woher kommt dieser Zugang?
Mein Zugang ist eigentlich sehr einfach: Technologie muss dem Menschen dienen – nie umgekehrt. Daraus ergibt sich alles andere. Ich versuche, dieses Prinzip nicht nur zu vertreten, sondern vorzuleben – mit einer gewissen Direktheit, aber auch mit Freude an Gestaltung.
Ich glaube, wir brauchen mehr Menschen, die nicht nur analysieren, sondern auch umsetzen und Strukturen schaffen, die über die eigene Person hinauswirken.
Was macht Digitalen Humanismus zu einem Führungsprinzip der Zukunft?
Weil er konkret umsetzbar ist. „Human in Command“ ist kein abstraktes Konzept, sondern ein Prinzip, das sich in Organisationen, Entscheidungsprozessen und Governance-Strukturen verankern lässt.
Gerade für Führungskräfte wird es entscheidend sein, Technologie nicht nur einzuführen, sondern verantwortungsvoll zu steuern. Digitaler Humanismus liefert dafür die Grundlage – als Verbindung von Innovation, Recht und gesellschaftlicher Verantwortung.

Human in the Loop vs. Human in Command:
Human in the Loop bedeutet, dass der Mensch systeme überwacht und punktuell eingreift – oft reaktiv und in der Rolle eines Kontrolleurs. In der Praxis reduziert sich das häufig auf das bloße Bestätigen von Ereignissen oder das „Häkchen setzen“. Human in Command hingegen beschreibt eine aktive Steuerungsrolle: Der Mensch setzt die Leitplanken, trifft die zentralen Entscheidungen und nutzt Technologie als Werkzeug. Technologie dient dem Menschen – nicht umgekehrt.
Digitaler Humanismus in der Praxis (Arbeit & Organisation):
Digitaler Humanismus verbindet technologische Innovation mit menschlichen Werten, rechtlichen Rahmenbedingungen und gesellschaftlicher Verantwortung. In Organisationen bedeutet das: Technologie schafft Freiräume statt Abhängigkeiten, Menschen bleiben Entscheider, nicht Systembediener, Verantwortung, Transparenz und ethische Reflexion sind integraler Bestandteil von KI-Einsatz. Ziel ist eine bewusste Gestaltung von Arbeit und Entscheidungsprozessen – mit dem Menschen im Zentrum.
0 Kommentare