Ein durchaus kurioser Fall sorgt derzeit in der österreichischen Justizwelt für Aufsehen und wirft grundsätzliche Fragen über den Einsatz von Künstlicher Intelligenz (KI) im Rechtswesen auf. Was zunächst wie ein Einzelfall wirkt, entpuppt sich bei genauerer Betrachtung als Warnsignal für eine gesamte Branche. Ein Anwalt hat beim Verfassen einer Nichtigkeitsbeschwerde gegen das Urteil eines Drogenhändlers auf Künstliche Intelligenz (KI) gesetzt. Statt einer präzisen rechtlichen Argumentation lieferte die KI aber frei erfundene Zitate und Urteile, die das Höchstgericht umgehend aufgedeckt hat. Der Oberste Gerichtshof (OGH) reagierte mit einer deutlichen Rüge und machte unmissverständlich klar, dass der Einsatz von KI juristische Fachkenntnis nicht ersetzen kann.
Die Grenzen digitaler Helfer im Gerichtssaal
Der Fall zeigt eindrucksvoll, wie gefährlich es sein kann, wenn man die juristische Arbeit vollständig einer Maschine überlässt. Der betroffene Anwalt legte für seinen Mandanten – einen Mann, der die Partydroge 3-Chlormethcathinon aus Rumänien nach Österreich geschmuggelt hatte – ein Rechtsmittel gegen das Urteil ein. Konkret handelte es sich um eine Nichtigkeitsbeschwerde, ein besonders anspruchsvolles Rechtsmittel, das strengen formalen und inhaltlichen Kriterien unterliegt.
Statt jedoch selbst die Nichtigkeitsbeschwerde auszuarbeiten oder zumindest umfassend zu überprüfen, griff der Anwalt auf ein KI-System zurück. Dieses Vorgehen sollte offenbar Zeit sparen und die Argumentation strukturieren. Doch genau hier lag der entscheidende Fehler. Die KI erstellte zwar einen sprachlich sauberen und formal überzeugenden Text, der auf den ersten Blick durchaus juristisch fundiert wirkte. Bei genauerer Prüfung stellte sich jedoch heraus, dass der Inhalt weitgehend wertlos war.
Fehlende Kontrolle und absurde Argumente
Der OGH nahm in seiner Begründung kein Blatt vor den Mund. Besonders schwer wog der Umstand, dass sich die Beschwerde auf Sachverhalte bezog, die so gar nicht stattgefunden haben. Auch andere angeblich nicht erörterte Beweise, auf die sich die Beschwerde stützte, existierten nicht. Die von der KI zusammengefügten Argumente erwiesen sich als reine Fantasieprodukte – eine peinliche Panne, die nicht nur dem Anwalt, sondern auch seinem Mandanten geschadet hat. Denn eine unzureichend begründete Nichtigkeitsbeschwerde kann, so der OGH, von Seiten des Gerichts gar nicht geprüft werden.
Das Gericht hat somit deutlich gemacht, dass eine artifizielle Intelligenz zwar Texte generieren kann, aber nicht in der Lage ist, den komplexen juristischen Kontext richtig zu verstehen. Während Algorithmen auf sprachliche Muster reagieren, fehlt ihnen am Ende doch die Fähigkeit, rechtliche Relevanz oder Beweiswürdigung korrekt einzuordnen. Das Ergebnis mag daher ein formal gut klingender, aber inhaltlich wertloser Schriftsatz sein, der den Anforderungen eines Höchstgerichts nicht standhält.
Erfundenes Recht statt fundierter Argumente
Die Software produzierte ein ausgefeiltes, aber inhaltlich wertloses Schriftstück. So wurden mehrere Entscheidungen des OGH zitiert, die es aber schlichtweg nicht gibt. Im Fachjargon spricht man von sogenannten „Halluzinationen“, also von erfundenen Inhalten, die eine KI als Tatsache ausgibt. Dieses Phänomen ist in der KI-Forschung bekannt und stellt eines der größten Probleme beim Einsatz generativer Sprachmodelle dar.
Der OGH reagierte daraufhin mit deutlicher Kritik. In seiner Entscheidung sprach das Gericht davon, dass das eingebrachte Vorbringen „mit zahlreichen Fehlzitaten durchsetzt“ sei. Es sei „offenbar ohne fachliche Kontrolle durch künstliche Intelligenz erstellt worden“ und verfehle daher vollständig das erforderliche juristische Niveau. Damit war die Nichtigkeitsbeschwerde aus Sicht des Höchstgerichts unbrauchbar und wurde abgewiesen.
Fehlende Kontrolle und absurde Argumente
Der OGH nahm in seiner Begründung kein Blatt vor den Mund. Besonders schwer wog der Umstand, dass sich die Beschwerde auf Sachverhalte bezog, die so gar nicht stattgefunden haben. Auch andere angeblich nicht erörterte Beweise, auf die sich die Beschwerde stützte, existierten nicht. Die von der KI zusammengefügten Argumente erwiesen sich als reine Fantasieprodukte – eine peinliche Panne, die nicht nur dem Anwalt, sondern auch seinem Mandanten geschadet hat.
Denn eine unzureichend begründete Nichtigkeitsbeschwerde kann, so der OGH, von Seiten des Gerichts gar nicht geprüft werden. Das bedeutet im Klartext: Der Angeklagte wurde um eine echte inhaltliche Überprüfung seines Urteils gebracht. Die Verantwortung dafür liegt eindeutig beim Verteidiger.
KI versteht keinen juristischen Kontext
Das Gericht hat somit deutlich gemacht, dass eine KI zwar Texte generieren kann, aber nicht in der Lage ist, den komplexen juristischen Kontext richtig zu verstehen. Während Algorithmen auf sprachliche Muster reagieren, fehlt ihnen am Ende doch die Fähigkeit, rechtliche Relevanz oder Beweiswürdigung korrekt einzuordnen.
Eine KI kann nicht erkennen, ob ein zitierter Fall tatsächlich existiert, ob er vergleichbar ist oder ob er überhaupt rechtlich einschlägig wäre. Das Ergebnis mag daher ein formal gut klingender, aber inhaltlich wertloser Schriftsatz sein, der den Anforderungen eines Höchstgerichts nicht standhält.
Experten warnen vor blindem Vertrauen in KI
Der Vorfall hat natürlich auch in der Anwaltschaft eine Diskussion über den Umgang mit neuen Technologien ausgelöst. Der auf Rechtsmittel spezialisierte Anwalt Günther Rebisant erklärte gegenüber einer österreichischen Tageszeitung, dass die Verantwortung stets beim Menschen bleibe:
„Für einen wirksamen Rechtsschutz durch den OGH verlangt das Gesetz, dass der Nichtigkeitsgrund genau und angemessen dargelegt wird. Sonst kann das Höchstgericht die Beschwerde inhaltlich gar nicht beantworten.“
Rebisant betonte des Weiteren, dass moderne Kanzleien längst auf KI-Tools zurückgreifen. Etwa wenn es darum geht, Urteile zu durchsuchen oder juristische Texte vorzubereiten. Doch der entscheidende Unterschied liege in der fachlichen Kontrolle.
„Moderne Rechtsanwaltskanzleien nutzen dafür heute auch Künstliche Intelligenz. Doch als Strafverteidiger trage ich die Verantwortung, die Nichtigkeitsbeschwerde persönlich zu kontrollieren.“
Wo KI heute sinnvoll eingesetzt wird
Tatsächlich hat die KI natürlich viele Arbeitsabläufe grundlegend verändert. Vor allem, wenn es um die Erstellung von Texten oder Bildern geht, aber auch mit Blick auf die Analyse und Datenauswertung. In zahlreichen Branchen ist der Einsatz von KI längst Alltag geworden.
Die KI überzeugt etwa im Bereich Gaming. Hier sind die nicht spielbaren Charaktere über die Jahre deutlich intelligenter geworden. Auch im Online Glücksspiel kommt die KI stets zum Einsatz und analysiert das Verhalten des Spielers. Wer etwa den Mega Moolah Jackpot gewinnen will und vorwiegend diesen Slot bedient, wird wohl mit der Zeit auch entsprechende Boni dafür präsentiert bekommen. Die KI kann hier nämlich durchaus erkennen, welche Favoriten der menschliche Spieler hat.
Warum Rechtsprechung eine besondere Herausforderung ist
Aber die KI hat Probleme, wenn es darum geht, die Rechtsprechung richtig einzuordnen. Das heißt, überall kann diese neue Technologie noch nicht zu 100 Prozent eingesetzt werden. Recht ist kein rein statistisches System. Es lebt von Auslegung, Argumentation, Erfahrung und Kontext.
Denn KI-Systeme können zwar umfangreiche Datenmengen verarbeiten, aber sie „verstehen“ keine Rechtslage im eigentlichen Sinn. So produzieren sie überzeugend klingende Formulierungen, ohne deren Wahrheitsgehalt oder juristische Tragweite erfassen zu können.
Gefahr für den Rechtsstaat
„Wer erfundene Verfahrensergebnisse oder Gerichtsentscheidungen zitiert, schadet dem Rechtsschutz und bringt den Angeklagten um ein wirksames Rechtsmittel“, so Rebisant weiter. Diese Aussage bringt die Tragweite des Problems auf den Punkt. Es geht nicht um technische Spielereien, sondern um die Grundfesten des Rechtsstaats.
Der Fall aus Österreich zeigt eindrucksvoll, dass der Einsatz von KI im juristischen Bereich klare Regeln, Verantwortlichkeiten und vor allem menschliche Kontrolle benötigt. KI kann unterstützen, aber sie darf niemals die letzte Instanz sein.
Fazit: Fortschritt mit Verantwortung
Der Vorfall vor dem OGH ist mehr als nur eine kuriose Randnotiz. Er ist ein Warnsignal. Künstliche Intelligenz ist ein mächtiges Werkzeug, doch ohne Fachwissen, Kontrolle und Verantwortung kann sie erheblichen Schaden anrichten. Gerade im Strafrecht, wo es um Freiheit, Schuld und Gerechtigkeit geht, darf der Mensch nicht durch Maschinen ersetzt werden.
Der OGH hat mit seiner Entscheidung unmissverständlich klargemacht: Juristische Qualität lässt sich nicht automatisieren. Verantwortung bleibt menschlich – und das wird auch in Zukunft so bleiben müssen.






