#16 Warum KI nicht richten darf

Shownotes

Hungrige Richter:innen kurz vor dem Mittagessen fällen härtere Urteile. Das hat eine israelische Studie ergeben, in der es um die Frage ging, ob Häftlinge auf Bewährung freigelassen werden sollen. Vor dem Mittagessen wollten die Richter:innen offenbar kein Risiko eingehen und entschieden eher gegen die Freilassung. Der Maschine passiert das nicht – sie agiert aber dennoch mitunter unmenschlich, sagt Podcast-Gast Sophie Martinetz im Gespräch mit Host Petra Tempfer. KI ist so individuell wie die Bereiche, für die sie trainiert worden ist, und: Sie kann auch lügen.

Gerichtsurteile fällen darf sie daher (noch) nicht. Weltweit sei es derzeit so, dass Recht von einem/einer Richter:in gesprochen werden muss, sagt Sophie Martinetz. Im Vorfeld, zum Beispiel für das Aufbereiten von Daten, könne man KI sehr wohl verwenden. Damit Menschen schneller zu ihrem Recht kommen, wäre es in den Augen der Juristin allerdings sinnvoll, KI intensiver einzusetzen: Vor allem in Ländern wie Indien liegen Millionen von Fällen jahrelang, bis sie bearbeitet werden. Die Arbeit der Rechtsanwaltsanwärter:innen werde trotzdem nicht überflüssig werden – es gibt genug zu tun.

Weiterführende Links:

Aus dem Archiv der Wiener Zeitung vom 3. Jänner 1842 (Seite 4):

Maschinen, die Aufgaben übernehmen und Prozesse vereinfachen, faszinieren die Menschen schon lang. Bereits 1810 erfand zum Beispiel der deutsche Uhrmacher und Musikinstrumentenbauer Friedrich Kaufmann den Trompeter-Automaten, der etwaige Engpässe in Orchestern ausgleichen sollte. Noch Jahre danach füllten Berichte über den Automaten die Zeitungen – so auch die Wiener Zeitung. Am 3. Jänner 1842 schrieb diese in ihren Kunst-Nachrichten auf Seite 4, dass mit dem Trompeter-Automaten „in der Tat das Unglaubliche geleistet wird“, er aber „bloß in die Klasse bewundernswerter Kuriositäten gehören“ werde. Er wurde folgendermaßen beschrieben: Kleine Blasebälge vertreten die Stelle der Lungenflügel und erzielen einen Ton, welcher dem durch den Hauch des Menschen einer Trompete entlockten ziemlich ähnlich ist, und sich nur dem Ohr etwas unverschmelzt und zerstückt darbietet, indem der Mechanismus der innerlich angebrachten Blasebälge nur stoßweise wirkt, und auf diese Art auch nur ein in einzelne Stöße zerteilter Ton hervorgebracht werden kann. Der Besuch der von Hrn. Kaufmann veranstalteten Akademien wird reichlich belohnt durch das rege Interesse, welches seine kunstvollen Instrumente und Automaten erwecken.

Studie aus London über das versuchsweise Urteilen Künstlicher Intelligenz am Europäischen Gerichtshof für Menschenrechte von Nikolaos Aletras et al.

Studie aus Israel, dass hungrige Richter:innen härtere Urteile fällen

Bayerisches Forschungsinstitut für Digitale Transformation zu Studien, Daten und Fakten über Künstliche Intelligenz

Österreichs Ministerium für Bildung, Wissenschaft und Forschung zu Künstlicher Intelligenz

Habt ihr Fragen oder Vorschläge für unsere nächsten Folgen? Dann schickt uns eine Sprachnachricht über WhatsApp. Die Nummer lautet: +43 664 834 8344. Unseren Podcast könnt ihr auf Spotify, Apple, Google und anderen Plattformen kostenlos abonnieren.

Transkript anzeigen

00:00:00: Wenn ich mir erwarte, dass ich ins Jajapiti eine Frage eingebe, die heißt, wie viele

00:00:12: Monate muss ich ins Gefängnis, wenn ich eine Mort begehe?

00:00:15: Dann wird Jajapiti nur sehr bedingt eine richtige Antwort geben und wenn ich keine Ahnung

00:00:20: davon habe, sollte ich mich auf keine Frage darauf verlassen.

00:00:23: Herzlich willkommen bei "Weiter Gedacht" der Podcast der WZ.

00:00:37: Jede Woche präsentieren wir eine neue Geschichte, stellen eure Fragen und geben Einblicke in

00:00:42: unser 320 Jahre altes Archiv.

00:00:44: Die einen sehen darin eine Wahnsinnserungenschaft, die anderen warnen vor Fehlurteilen.

00:01:00: Es geht um künstliche Intelligenz und Jajapiti, konkret in der Justiz, um die Digitalisierung

00:01:05: der Rechtsbranche.

00:01:06: In den USA setzen bereits große Kanzleien, KI zum Beispiel in der Insolvenzabteilung

00:01:12: ein, um Antworten auf juristische Fragen zu bekommen.

00:01:15: In London ließ man schon versucht, künstliche Intelligenz am Europäischen Gerichtshof für

00:01:20: Menschenrechte urteilen.

00:01:22: Mit 79% Wahrscheinlichkeit waren es richtige Entscheidungen im Sinne des Richters.

00:01:28: Und auch in Österreich kommt künstliche Intelligenz bereits zum Einsatz.

00:01:32: Um uns hier auf dem letzten Stand der Dinge zu bringen, habe ich Sophie Martinez, ich

00:01:36: habe mir zu Gast.

00:01:37: Sie ist Gründerin und Leiterin von Future Law.

00:01:40: Das ist eine unabhängige Plattform für Legal Tech und sie ist Director des EU Legal Tech

00:01:46: Centers.

00:01:47: Hallo Sophie.

00:01:48: Hallo Servus.

00:01:49: Mein Name ist Petra Tempfer, ich bin Redakteurin der WZ und zum Thema KI und Justiz hat uns

00:01:56: auch folgende WhatsApp der 28-jährigen Rosa erreicht.

00:02:00: Also ich bin mir da nicht ganz sicher, ob man einer künstlichen Intelligenz immer vertrauen

00:02:07: kann.

00:02:08: Aber wenn man die Wahrheit sagt, es kann gut sein, dass diese Programme auch einfach

00:02:12: mal etwas nicht richtig auswerten können oder nicht richtig beurteilen können.

00:02:16: Und da kann ich mir schon noch vorstellen, dass diese künstliche Intelligenzprogramme

00:02:20: dann auch Fehler an Felix sind und dass es da auch mal Probleme dabei gibt.

00:02:26: Also diese Frage trifft in meinen Augen schon sehr genau den Kern der ganzen Sache.

00:02:31: Es geht um Wahrheit, um Lüge, um Gerechtigkeit.

00:02:35: Und bevor wir aber auf Rosas Frage zurückkommen, würde ich gerne mal so ganz kurz abstecken,

00:02:40: wie weit ist man schon beim Thema KI weltweit und auch in Österreich.

00:02:45: Was leistet KI schon?

00:02:47: Also die Frage ist ja dann super spannend, die da mal kommt.

00:02:51: Was leistet die KI schon?

00:02:53: Also wir müssen mal unterscheiden zwischen KI und Statistik ein bisschen auch.

00:02:57: Also das Thema Statistik heißt sich Werte, Daten aus, nach gewissen Kriterien und so weiter.

00:03:01: Und die KI ist noch einmal ein bisschen anders.

00:03:05: Bei der KI geht es je nach KI auch darum, unterschiedliche Aufgaben auch zu fassen.

00:03:10: Zum Beispiel Jejebidi ist ein Sprachmodell.

00:03:13: Was kann Jejebidi?

00:03:14: Sie ist kein hervorragend das nächste Wort vorher sagen.

00:03:18: Und das kann es ausgezeichnet.

00:03:20: Aber diese KI und Jejebidi kann zum Beispiel nicht analysieren

00:03:25: oder Zusammenhänge bilden, die nicht reinsprachlich sind.

00:03:30: Also nur mal zur Eigenwenderklärung.

00:03:32: Und was kann jetzt KI schon im juristischen Bereich?

00:03:35: Also im juristischen Bereich, ein großer Anwanderungsbereich ist zum Beispiel das Thema Wissensmanagement.

00:03:40: Auf die eigenen Daten zum Beispiel von Kanzleien oder von Gerichten zuzugreifen.

00:03:45: Da kann man sich vorstellen, 20 Jahren Wissen im Papier unstrukturiert.

00:03:49: Ich sage nicht, dass es herumkugelt, aber auch digital.

00:03:52: Irgendwo abgelegt, dass man selber sein eigenes Wissen zugänglich machen kann.

00:03:56: Das ist ein toller Anwendungsvoll.

00:03:58: Es gibt auch KI-Anwendungen, zum Beispiel IB.

00:04:01: Da gibt es eine Streitschlichtung.

00:04:03: Da ist es so, wenn ich bei IB was gekauft habe und dann kommt es kaputt an.

00:04:06: Dann kann ich über eine, mithilfe einer KI quasi in einer online Dispute Resolution quasi

00:04:12: mein Begei eingeben.

00:04:14: Der Verkäufer sagt dann seines und die AI checkt das auch gegen

00:04:17: und macht dann vielleicht auch sogar einen Vorschlag.

00:04:18: Das sind sehr gute Dinge.

00:04:20: Negativ wird immer gebracht, dass die KI entscheidet, ohne dass es irgend ein Mensch noch mal gesehen hat.

00:04:26: Einfach Kriterien in eine sogenannte schwarze Box hineinwirft.

00:04:29: Alles mischt wie eine Waschmaschine.

00:04:31: Und am Schluss kommt ein grauer Socken oder ein weißer Socken, der mal vorher grauer war heraus.

00:04:36: Davon die Leute Angst.

00:04:38: Und dafür gibt es aber auch Regeln, die jetzt zukünftig entwickelt werden, damit so etwas nicht passiert.

00:04:43: Und man muss auch sagen, es ist im Moment nicht in diesen Anwendungsbereichen tätig.

00:04:48: quasi oder dann wird nicht gerade eingesetzt.

00:04:49: Da sind wir jetzt eigentlich hier schon bei der Frage von der Rosa.

00:04:52: Also was kann KI nicht?

00:04:55: Und vor allem was jetzt der Justiz betrifft und die Rechtsprechung lügt die KI.

00:04:59: Also lügen.

00:05:01: Wir machen ja diese KI immer sehr menschlich auch natürlich.

00:05:04: Weil das hilft uns, glaube ich, mit der Vorstellungskraft.

00:05:07: Ich würde mir ja auch einen besseren Namen wünschen.

00:05:09: Statt künstlicher Intelligenz.

00:05:11: Ich sage jetzt nicht künstliche Dummheit, weil das ja auch zu übertrieben.

00:05:14: Aber eigentlich ist es ja nicht total intelligent, sondern es gibt gewisse statistische,

00:05:18: mathematische Rechnungen, die da dahinten ablaufen.

00:05:20: Ja.

00:05:22: So, lügt sie.

00:05:23: Und unterschiedliche KIs können unterschiedliche Dinge.

00:05:26: Also wenn ich Zahnschmerzen habe, gehe ich zum Zahnarzt.

00:05:29: Wenn ich Bauchschmerzen habe, gehe ich zu einem anderen Arzt.

00:05:32: Ja.

00:05:33: Und so wie man unterschiedliche Ärzte und unterschiedliche Dinge können, haben aber

00:05:36: alle Medizin studiert, können auch KI's unterschiedliche Dinge.

00:05:40: Also JGPD, wieder mal kann Sprache wiederholen, zusammensetzen.

00:05:45: Dann gibt es KI's, die können super analysieren, Zusammenhänge schaffen.

00:05:49: Also ein Beispiel wäre, die kann man dann diese Zusammenhänge schaffen, dass ich sage,

00:05:53: Paris und Eifel-Turmgehände zusammen.

00:05:56: Also was heißt jetzt Lügen?

00:05:58: Wenn ich mir erwarte, dass ich ins JGPD eine Frage eingebe, die heißt, wie viele Monate

00:06:05: muss ich ins Gefängnis, wenn ich eine Mord begehe?

00:06:07: Dann wird JGPD nur sehr bedingt eine richtige Antwort geben.

00:06:12: Und wenn ich keine Ahnung davon habe, sollte ich mich auf keine Frau drauf verlassen.

00:06:16: Weil es deutsches Recht herzieht.

00:06:18: Weil dort gibt es eine tolle Sprache mit Mord.

00:06:20: Aus der Schweiz, irgendwelche Dinge zusammen, ein Würfel, die halt toll klingen.

00:06:25: Aber ja, es lügt in diesem Sinn.

00:06:28: Aber es ist auch nicht dafür ausgelegt.

00:06:30: Weil wenn ich zum Zahnarzt gehe und sage, man braucht, tut man so weh.

00:06:32: Man wird der Zahnarzt auch sagen, ja, kann ich vielleicht nicht beantworten oder würde

00:06:37: mir eine falsche Antwort geben.

00:06:38: Das heißt, man muss schon auch die KI so einsetzen, wie man sie braucht.

00:06:41: Und da wäre ein bisschen mehr Bewusstsein, glaube ich, auch wichtig in der Öffentlichkeit.

00:06:46: Und was hat es mit dieser Halluzinationsrate auf sich?

00:06:49: Die Halluzinationsrate ist folgendes.

00:06:51: In meiner Inzuchtemperatur, das kann man einstellen auch.

00:06:55: Allerdings nicht im klassischen JGPD, das wir gerade das auch nutzen können.

00:06:59: Da stellt der AI-Hersteller absichtlich eine Halluzinationsrate her, damit er auch Rückmeldungen

00:07:08: von uns bekommt.

00:07:09: Also geht es ja darum, dass man immer wieder besser wird im System.

00:07:12: Jetzt sagen manche Wissenschaftler, dass JGPD wieder schlechter, weil lange die Ergebnisse

00:07:16: nicht so gut sind.

00:07:17: Das heißt, ich weiß, dass ich 20% der Fällen eine falsche Antwort bekomme.

00:07:22: Und dann sagt das, ah, super, aber die Petra oder die Sophie, die werden mir da sagen und

00:07:27: sagen, so eine schlechte Antwort.

00:07:28: Und damit kann das System wieder besser werden.

00:07:31: Also das ist absichtlich so.

00:07:33: Das kann man in Versionen, für die man viel Geld bezahlt, kann man das auch einstellen

00:07:37: und kann auch sagen, nein, ich möchte eine Null Halluzinationsrate haben.

00:07:39: Die Hersteller, die das jetzt gratis zur Verfügung stellen, wollen diese Halluzinationsrate.

00:07:44: Dazu möchte ich nur auch noch ein sagen, es ist auch die Frage, befrage ich ein System

00:07:50: mit öffentlichen Daten oder im Justizbereich, zum Beispiel bei den Anwälten oder auch in

00:07:55: der Justiz selber, falls es erlaubt sein sollte, kann ich auf mein eigenes Wissen zugreifen.

00:08:00: Und innerhalb meines eigenen Wissens brauche ich diese Range dann auch oft nicht mehr.

00:08:05: Da kann ich mich doch verlassen, dass ich die richtige Information habe, als Basis

00:08:08: schon hoffentlich.

00:08:09: Also das heißt, die Halluzinationsrate gibt bewusst falsche Antworten und warum genau?

00:08:16: Damit der Hersteller von einer AI, das ist einfach eine Firma und die möchten wissen,

00:08:22: gibt meine AI jetzt quasi immer wieder eine richtige Antwort.

00:08:24: Formuliert ist das richtig.

00:08:25: Und wenn es die Halluzinationsrate auf 20 Prozent gestellt ist, ist jeder fünfte Anfrage

00:08:32: tendenziell irgendwo falsch.

00:08:33: Sie wollen, dass wir das rückmeldet.

00:08:35: Ich kenn das vielleicht als "Badge-Gibidida" steht, es gibt es dann neben einen Daumen

00:08:39: hoch und Daumen runter.

00:08:40: Wie wird diese Antwort beurteilt?

00:08:43: Und die wollen diese Lernphase auch haben.

00:08:45: Okay, jetzt habe ich es verstanden.

00:08:48: Wie sieht es dann mit Fällen von Urteilen aus quasi?

00:08:52: Ist es irgendwo auf der Welt schon einmal gemacht worden, dass es so im Rechtssystem

00:08:55: tatsächlich eine KI-Varianturteil gefällt hat?

00:08:58: Da gibt es natürlich immer wieder Versuche.

00:09:00: Aber da gibt es ganz klar richtige Bestimmungen auf, auch in Österreich und in Europa.

00:09:04: Das Prinzipiell das Recht von einem Richter oder einer Richterin gesprochen werden muss.

00:09:10: Es gibt jetzt auch in den neuen Regelungen, die da in der EU kommen.

00:09:13: Ganz klar, dass Entscheidungen, also die Regeln, dass Entscheidungen in sehr, sehr vielen Fällen

00:09:17: von einem Menschen, also vorbereitet werden von einer KI und dann von einem Menschen,

00:09:21: aber noch einmal quasi freigegeben werden müssen und entschieden werden müssen.

00:09:24: Das ist ja wirklich, das ist in Ordnung.

00:09:26: Also, das ist ein großer Schutzbereich natürlich.

00:09:28: Jetzt ist die Frage, würde es was bringen, die AI einzusetzen?

00:09:32: Also, wir wissen in Indien, ich glaube, das sind Millionen rechtliche Fälle, die einfach

00:09:38: nicht bearbeitet werden können, weil es so viele sind.

00:09:40: Da geht es oft um kleine Teile.

00:09:41: Und da ist schon die Frage, macht es Sinn, eine AI irgendwo einzusetzen, in einem klar

00:09:47: gesetzlich regulierten Rahmen, damit die Leute schneller zu ihrem Recht kommen?

00:09:51: Weil, wenn mein Haus kaputt ist und ich aber einen Gewährleistungsanspruch, den gibt es

00:09:54: ja auch in Indien, ja und ich warte meinen Schaden als 30 Jahre, dann ist mein Haus auch

00:09:59: schon kaputt, das nutzt mir nichts mehr, auch wenn mir dann Geld zugesprochen wird.

00:10:02: Also, ich denke, ja, das macht schon Sinn, aber man muss ganz klar sagen, wo es ein Bereich

00:10:06: der nicht riskant ist, wo es ein Bereich, wo die KI vielleicht fast schon statistisch

00:10:11: angewendet werden kann, also mit klaren Regeln und nicht eine Blackbox, wo ich nachher nicht

00:10:16: weiß, was rauskommt.

00:10:18: Also, ich denke, das macht schon Sinn.

00:10:20: Im Moment, du hast nicht besonders viel gemacht, dann wird es natürlich heiß umstritten.

00:10:23: Aber wir wissen auch, dass Hungrecker Richter in Richtung vor den Mittagessen tendenziell

00:10:30: konservativere Entscheidungen treffen als nicht Hungrecker und insofern sind wir Menschen

00:10:35: ja davor auch nicht gefahren.

00:10:36: Das heißt also, die KI entscheidet nicht so unmenschlich, wie es manchmal Menschen

00:10:40: tun.

00:10:41: Das ist häufig ein bisschen, weil wir hoffen uns ja bis zum Gewissen grad, dass diese AI

00:10:48: eigentlich uns Menschen total unterstützt, weil ich glaube, wir sind alle so erschöpft,

00:10:52: ich weiß nicht, was es ist und ob das in allen Ländern in der Welt so ist, aber auch vielleicht

00:10:55: Corona, allem so viel Arbeit, eigentlich erhofft man sich ja auch diese Erleichterung und darum

00:10:59: glaube ich, ist Jajapiti auch so erfolgreich und marketingmäßig, dass sogar mein Installe

00:11:04: Dörr Jajapiti kennt.

00:11:06: Auf der anderen Seite haben wir so wahnsinnig große Angst davor, dass sie dann unmenschlich

00:11:10: entscheiden.

00:11:11: Was heißt jetzt unmenschlich?

00:11:12: Heißt unmenschlich nicht als Mensch, sondern nach Regeln und natürlich muss auch Richter

00:11:18: und Richterinnen entscheiden nach Regeln und ja und ich glaube, das ist nochmal schwierig

00:11:22: und mit diesem Unmenschmenschlich ja, manchmal entscheidet sie unmenschlich, weil sie sich

00:11:27: an gar nichts Emotionales halten kann, sondern einfach dann nur Fakten basiert ist und natürlich

00:11:32: darum gibt es ja auch das Recht auf einen Richter und eine Richterin gibt es uns manchmal

00:11:36: feine Norsen, die halt dazwischen stehen.

00:11:38: Da kommen sich auch die unterschiedlichen Rechtssysteme im Spiel, weil in Österreich zum Beispiel

00:11:43: da gibt es ja die Unmittelbarkeit der Beweisführung, dem Nachmus ja ein Richter sich einen oder

00:11:49: ein Gericht sich einen persönlichen Eindruck bei der Beweisaufnahme verschaffen, das kann

00:11:54: die KI ja zum Beispiel nicht.

00:11:55: Und in Amerika ist es ja wiederum Osus, dass sich die Rechtsfindung weniger in den Gesetze

00:12:01: sechstenorientiert, sondern eher an Bereitsgefälten urteilen.

00:12:04: Also es ist wahrscheinlich wirklich auch je nach Land ganz unterschiedlich in der KI zum

00:12:09: Einsatz kommt.

00:12:10: Ja, also ich denke bei der Beweisführung oder denke es ist bei der Beweisführung ist vor

00:12:13: jeden Fall die Frage ist, kann ein Richter, ein Richterin oder auch in Staatsanwalt, in

00:12:16: Staatsanwalt auf der anderen Seite, ja also angegelt kann, sind die berechtigt oder macht

00:12:21: es Sinn, dass die zum Beispiel KI anwenden?

00:12:23: Also gerade bei Suchen, durch Suchung von großen, riesengroßen Fällen, ja da kriegen

00:12:29: sie hunderttausende Seiten, das kann eh keiner durchschauen, da ist die Frage, macht das

00:12:33: Sinn.

00:12:34: Ja, das zweite Thema ist das KESLA, da haben wir immer das Thema, dass wir natürlich bestehende

00:12:41: Urteile auch immer weiter polonieren, das ist eine eigene Rechtsform in Amerika, wie

00:12:45: du sagst, aber worauf wir besonders achten müssen bei der KI und ich bin immer erstaunt, wie

00:12:50: oft ich danach gefragt habe, natürlich perpetuiert sie, wenn sie die falsche Information hat,

00:12:56: immer wieder dieselben Regeln und dieselben Urteile und da muss man schon höllisch aufpassen,

00:13:01: weil es heißt so schön garbage in garbage out, also schlechtes kommt rein, schlechtes

00:13:06: kommt raus, wenn die Daten gewisse Vorteile, die also quasi vertiefen, weil sie es immer

00:13:12: wieder wiederholen, weil die Maschine kann nur das lernen, was wir ihr geben, ja dann

00:13:18: ist das natürlich ein Problem.

00:13:19: Und dann werden wir Vorteile perpetuiert haben.

00:13:22: Das heißt also zum Beispiel, wenn an einem Gericht im Durchschnitt mehr Männer als Frauen

00:13:28: verurteilt worden sind, wird die KI das vielleicht übernehmen und dann könnte sie sexistisch

00:13:33: sein, rassistisch, diskriminierend, ja, das sind alles die Gefahren.

00:13:37: Menschen natürlich auch sein können, aber wir müssen einfach überlegen, im Moment,

00:13:41: auch wenn sein Selbstlernen das System ist, das heißt, dass es sich immer weiterentwickelt,

00:13:45: während die Maschine von den Daten, die sie sieht, das ist einfach das Essen, das sie bekommt

00:13:50: und das schaufelt sich hinein.

00:13:51: Und je nachdem, was da eben drinnen ist, ist sie von einem mehr und weniger und wenn

00:13:56: du immer so wieder sagst, mehr Männer statt Frauen oder mehr Frauen statt Männer oder

00:13:59: Gehaltsunterschiede bei arbeitsrechtlichen Ansprüchen, wenn es das immer wieder sieht,

00:14:05: dann wird das das perpetuieren und dann wird es das auch weiter immer wieder in die Entscheidungen

00:14:09: mit hineinnehmen.

00:14:10: Und da ist es unsere Verantwortung, das gibt es aber auch gesetzliche Regelungen, die

00:14:13: jetzt auch kommen, dass Unternehmen auf jeden Fall dafür haften werden, welche Datenqualität

00:14:19: haben sie auch.

00:14:20: Ja, das ist natürlich eine herkules Aufgabe.

00:14:23: Weil wenn ich jetzt auch gerichtsgutachten auch weiter justiere, wenn man so etwas anschauen

00:14:29: dürfte und analysieren dürfte, dann ist das das Problem.

00:14:30: Also man muss schon damit rechnen, dass das aufkommt und dann muss man sehr kritisch hinterfragen.

00:14:35: Das heißt auch, wir brauchen wieder Ausbildung zum Beispiel, nicht Leute, die auf keine Fall

00:14:39: GPD einsetzen und so weiter, sondern wir brauchen Menschen, die in ihrem Studium, gerade auch

00:14:43: im New Studium, genau diese Dinge einsetzen, damit sie verstehen, was in die Risik man, was kann

00:14:48: nachher herauskommen. Und ich muss ja selber entscheiden.

00:14:51: Also wäre ein Urteil rechtlich abgesichert von KI?

00:14:57: Das ist jetzt wirklich schwierig, weil im Moment nicht, aber die Richter und die Richterinnen,

00:15:02: nein, die Antwort ist nein. Die Antwort ist nein. Allerdings ist es schon so, dass ein Richter

00:15:09: oder ein Richterin KI durchaus in Hilfestellung zur Verfügung hat, weil der kann auch auf

00:15:14: Google Suche machen und Google Suche ist auch nicht verboten. Wenn er irgendeine Information

00:15:18: braucht oder irgendwas nochmal anschauen möchte, er kann ja auch ein Exo-Scheat sich aufbereiten.

00:15:21: Ich meine, das ist auch Statistik. Und das ist schon ganz wichtig. Aber die Frage ist,

00:15:25: wer trifft am Schluss die Entscheidung? Was ist auch bei den Anwältern so? Die Anwälter und

00:15:29: Anwälterinnen haben eine sogenannte Haftung, die sie haben. Also das heißt, wenn sie eine falsche

00:15:33: Beratung abgeben und es entsteht daraus einen Schaden, dann müssen sie dafür grad stehen.

00:15:38: Ja. Und genau deshalb, aus dem Sinne gibt es auch in Amerika irgendwelche Fälle, wo Leute

00:15:43: halt eben glauben, sie können alles ins GPD eingeben und schicken das ins Gericht und dann passt

00:15:46: das schon. Nein, dem ist nicht so. Ich muss mir schon selber Gedanken machen.

00:15:50: Das heißt, wenn man das Ganze weiterspint, wäre es denkbar, wenn zum Beispiel eine KI auf die Arbeit

00:15:56: einer Anwälter in ein Anwalt ist trainiert, eine andere KI auf den Staatsanwalt, die Staatsanwältin

00:16:02: und die nächste KI auf die Richterin, dass dann ein gesamtes Verfahren nur von einer KI

00:16:08: abgewickelt wird. Also mit der jetzigen Bestimmung ist das unwahrscheinlich. Aber es hat ja schon

00:16:14: auch ein bisschen einen Schaden. Ich sage das nicht science-fictionmäßig. Ich glaube, man muss

00:16:17: immer schauen, in welchen Bereichen, wo relativ wenig passieren kann. Also ein bisschen so einen

00:16:22: risikobassierten Ansatz hat. Macht das vielleicht Sinn und vielleicht nicht nur in Österreich oder

00:16:28: Deutschland, sondern wenn wir jetzt global denken, wie ich vorhin schon gesagt habe in Indien, wenn die

00:16:32: Leute 30 Jahre keinen Urteil bekommen oder keine Scheidung, also wenn all diese Dinge passieren,

00:16:37: dann muss ich sagen, glaube ich, ist da mehr wert für die Menschen bei relativ einfachen

00:16:42: Dingen, die wie, also wo es immer so, wenn ja oder wenn nein Kriterien sind, wo quasi immer so

00:16:49: tickboxen macht, braucht mir gar keine KI dafür. Dann glaube ich, ich würde das prinzipiell Sinn

00:16:53: machen, solche Digitalisierungsmethoden einzuführen, weil dann bekommen die Leute wenigstens schneller

00:16:59: Recht oder Unrecht und schneller eine Entscheidung und heute warten sie einfach sehr, sehr lange.

00:17:04: Und ich denke, das ist einfach ganz wichtig, dass man da mit viel hier und ran geht.

00:17:09: Beim Kindesunterhalt ist vielleicht nicht zu gescheit, aber wenn man seine Rechnungen nicht

00:17:14: bezahlt hat und gemahnt wird, dann ist es vielleicht in Ordnung.

00:17:17: Maschinen, die Aufgaben übernehmen und Prozesse vereinfachen, faszinieren die Menschen schon lange.

00:17:28: Bereits 1810 erfahren zum Beispiel der deutsche Urmacher und Musikinstrumentenbauer Friedrich Kaufmann,

00:17:34: der den Trompeter-Automaten der Engpässe in Orchestern ausgleichen sollte.

00:17:39: Noch Jahre danach füllten Berichte über den Automaten die Zeitungen, so auch die Wienerzeitung.

00:17:44: Am 3. Jänner 1842 schrieb sie in ihren Kunstnachrichten auf Seite 4, dass mit dem Trompeter-Automaten

00:17:51: in der Tat das unglaublich geleistet wird, die Erfindung aber bloß in die Klasse bewohnenswerter

00:17:56: Khoriositäten gehören werde. Er wurde folgendermaßen beschrieben.

00:18:01: Kleine Blasebällge vertreten die Stelle der Lungenflügel und erzielen ein Ton, welcher dem durch den Hauch

00:18:07: des Menschen einer Trompete entlockten ziemlich ähnlich ist und sich nur dem Ohrheitsersof

00:18:11: umverschmelzt und zerstückt darbietet, indem der Mechanismus der innerlich angebrachten

00:18:16: Blasebällge nur stoßweise wirkt und auf diese Art auch nur ein einzelnes Stöße zur Teil der Ton hervorgebracht werden kann.

00:18:24: Der Besuch, der von Herrn Kaufmann veranstalteten Akademien, wird reichlich belohnt durch das

00:18:29: Regeninteresse, welches seine kunstvollen Instrumente und Automaten erwecken.

00:18:35: Jetzt sind ja KI und Daten sehr eng verbunden, wie ist das aus mit der Frage des Datenschutzes?

00:18:40: Der Datenschutz ist super, weil der Datenschutz muss immer für alle sehr halten, was irgendwie nicht funktioniert

00:18:45: in unserer Welt im Moment im Digitalisierungsbereich. Nein, aber jetzt scherzt es beiseite. Der Datenschutz hat ja

00:18:50: eine klare Schutzfunktion. Er möchte unsere Daten schützen und er möchte auch, dass die Menschen, die hinter

00:18:56: diesen Daten stehen, geschützt werden. Da geht es um Privatsphäre und so weiter.

00:19:00: So, wo am Datenschutz einen Nachteil, wenn er überbordend ist und zum Beispiel ein wichtiges Thema ist, sagen wir mal in der Justiz,

00:19:08: wenn jetzt Gerichtsurteile ausgewertet werden. Nehmen wir mal jetzt Strafrecht, weil so ein bisschen Wirtschaftsrecht ist zwar nett,

00:19:14: da fährt der eine oder den anderen, also mit dem Auto bestätigt eine Planquette, das ist nicht tragisch,

00:19:20: aber im strafrechtlichen Bereich gibt es wirklich viele grausliche Dinge auch und viele schreckliche Dinge für die Menschen.

00:19:25: Da ist ganz klar, das wie in allen Bereichen auch, der Datenschutz besonders wichtig ist auch der Opferschutz.

00:19:32: Und da muss man dafür sorgen, wenn eine Zukunft geeignet wird, auch auf der Anwaltsseite, also nicht nur in der Justiz,

00:19:39: dass diese Interessen der Datenschutz gewährleistet wird, also zum Beispiel mit dem Schwerzen.

00:19:44: Namen müssen rauchgeschwärzt werden, persönliche Daten und so weiter, damit man nicht zurückführen kann,

00:19:49: wer ist diese Person, das ist wirklich essentiell. Will ich aber nochmal sagen, ja, aber noch viel wichtiger ist auch,

00:19:56: dass wir schauen, dass in den Datensätzen halt ein gewisser Bayer, wie wir vorhin schon noch gesprochen haben,

00:20:00: also dieses rassistisch, seksistisch und so weiter, dass wir halt schauen, dass diese Daten bereinigt werden,

00:20:06: damit eben solche Vorteile nicht weiter kommen. Insofern ist die Datenschutz gut.

00:20:11: Und wir leben natürlich in einer Zeit, wo wir so in der Zwischenzeit sind, der Chef von der OpenAI, also der Finder von Chatshepity,

00:20:22: der Marketing-Chinese ohne Ende sind, sagt, ja, wenn der Daten schon zu weit bleibt, kommen wir nicht mehr nach Europa.

00:20:27: Und dann haben wir die Chinesen, die alle sübere Leute wissen, in diese Welt will natürlich auch keiner.

00:20:33: Und Europa sitzt dann da mitten zwischen Amerika und China und macht tolle Sachen und man wird einfach sehen, wie sich das ausspielt.

00:20:40: Aber wir sehen schon, dass in vielen anderen Ländern auch gerade das Thema und der Ansatz des Datenschutzes wie in Europa gehandhabt wird,

00:20:47: durchaus wiederhalswinter, die Leute sagen, das macht eigentlich Sinn. Wir sind ja echt im wilden Westen.

00:20:53: Das Aufbereiten von Daten wird auch aus der Punkt mit der Arbeit von Rechtsanwaltsanwärter*innen, also konzipient*innen.

00:21:00: Und die Angst halt in vielen Köpfen ist, dass deren Arbeit irgendwann einmal obsolet wird, dass sie ersetzt wird durch die Arbeit der KI.

00:21:08: Was ist in deinen Augen berechtigt als Angst? Ist die Suchmaschine oder ist der Konzipient die Konzipientin besser?

00:21:17: Ja genau, ist der Konzipient die Konzipientin die bessere Suchmaschine?

00:21:21: Ist die Suchmaschine mit KI der bessere, Konzipient die bessere Konzipientin?

00:21:27: Also das ist ja wieder mal so schwarz und weiß.

00:21:29: Ich war ganz lustig, es gibt ein Interview vom Google CEO, so die mag man stehen wie man möchte,

00:21:35: und der richtiger Mann, der sagt, in 10 Jahren gibt's doppelt so viele Anwälte wie heute, weil eigentlich alles nur noch komplexer wird.

00:21:42: Es wird nicht einfacher. Und wenn man sich heute die KI-Verordnungen Europas anschaut, plus die Produkthaftung und den Digital Act und so weiter,

00:21:49: es sind ganz viele Gesetzgebungen, die versuchen, diese Digitalisierung einzuordnen und gesetzlich zu verankern,

00:21:56: wo Europa erstmalig Vorreiter ist und nicht wie immer alles schimpf im Hinten nach ist, dafür kriegen sie jetzt die Heme halt so.

00:22:03: Da muss man sagen, ja, es wird immer komplexer.

00:22:06: So, Entschuldige, aber das war jetzt nicht ganz die Frage, aber mit dem Thema Konzipientin und Suchmaschine.

00:22:10: Also, die Suchmaschine, wir wissen aus Studien, zum Beispiel, wir haben eine Studie gemacht,

00:22:16: das ist unser Legal Deck, warum das machen wir jedes Jahr.

00:22:19: Durchschnittlich verbraucht ein Wissensarbeiter, der juristisch arbeitet, in der Woche, also sieben bis neun Stunden,

00:22:27: das ist ein voller Arbeitstag, nur suchen und wir sagen nicht finden.

00:22:31: Wir wissen auch, dass es mit Kindsistudien zu diesem Thema gibt, dass ein Wissensarbeiter durchschnittlich neun Stunden in der Woche sucht.

00:22:38: So, und jetzt kann ich sagen, die Suchmaschine wird den Konzipienten und die Konzipientin nicht ersetzen,

00:22:44: sondern ihnen die Arbeit erleichtern und wenn die weniger suchen müssen, umso besser.

00:22:48: Was heißt jetzt suchen? Die Konzipientin macht ja mehr als suchen.

00:22:51: Die Konzipientin muss einmal für den Anwältin, oder die Anwältin mal, die Anwälte arbeiten ja so, die sagen,

00:22:57: ah, da hat ich doch mal was ganz was Tolles, gesuche mal in diesen Orten was nach.

00:23:02: Wie sie das finden, dauert es Ewigkeiten. Tolle Suchmaschinen wie Google, quasi, ja, sind toll und die werden das Leben allen erleichtern.

00:23:10: Und dann ist aber der nächste Schritt, die Frage ist, was wird jetzt hier erleichtern, die Arbeit?

00:23:15: Also, JETJPD zum Beispiel, das ein Beispiel, das ihr ja jeder sofort anwenden kann, ist super beim Zusammenfassen zum Beispiel von Texten.

00:23:23: Das heißt, wenn ich ein großes Urteil bekomme, dass ich für einen Mandanten, also meinen Klienten,

00:23:28: als Anwalt oder das Anwältin aufbereiten muss und ich gebe das jetzt im Konzipienten und sage, fasse das zusammen.

00:23:33: So, wenn der Konzipient grad von der Uni kommt, dann bin ich keine Ahnung, da braucht er mal vier Tage und da sucht er sich auch zu Tode mit allen möglichen Dingen.

00:23:42: So kann ich ihn JETJPD eingeben und da kann ich jetzt als Anwalt und Anwalt in die Entscheidung treffen und sage, fasse mir das auf 2000 Worte zusammen

00:23:52: und weiß ja, mein eigenes Wissen ist auch die Halluzinationsrate, kein Problem, weil es ist sehr solide.

00:23:57: Und dann muss ich das Urteil trotzdem durchgehen, aber ich habe schon mal eine Zusammenfassung.

00:24:01: Muss ich schauen, hat es jetzt ordentlich. Die Schwerpunkte gesetzt und steht da so richtig im Urteil drin, aber es ist meine Vorabarbeit.

00:24:07: Und dann muss man jetzt sagen, ja, damit die Konzipient einfach viel, viel länger brauchen, die Konzipient in dem Bezug, ja.

00:24:13: Das zweite Thema ist aber, damit die Konzipientin der Konzipient etwas lernen, müssen sie mal diese Urteile durchladen.

00:24:18: Und da sind wir jetzt wieder so in einer Zwischenzeit, ja, Effizientwerdung, Ausbildung und was ist uns wichtig.

00:24:25: Und es hat sie noch nicht ganz ausgesponnen, aber es ist kein Entweder oder.

00:24:30: Problematisch ist nur, wenn die Leute nicht wissen, dass man diese Tools verwenden kann aus meiner Sicht, weil es wird erwartet, auch von der Wirtschaft,

00:24:38: also die, die Anwälte zum Beispiel beauftragen, dass es der Konzipient eine Woche gebraucht hat und das zusammenfasst, und das wird nicht mehr bezahlt werden.

00:24:46: Ja, aber die Suchmaschinen werden alle freuen, vor allem die Konzipientinnen.

00:24:52: Wie ist das aus für die Klientinnen? Wird es für die teurer oder billiger, wenn die KI zum Einsatz kommt? Wird es ja auch teuer an sich?

00:24:58: Also die KI, da gibt die Tocke, also die werden ja berechtigt, die glauben immer, dass das kommt gratis, auch der Robber, der kommt gratis.

00:25:04: Nein, diese Dinge kosten alle relativ viel Geld und das wird ja mit Token sozusagen berechnet, die KI.

00:25:10: Unterschiedliche Modelle, wenn wir schauen, was Microsoft haben wird oder andere große Unternehmen, wird das die Unternehmen massives Geld kosten, damit sie es einsetzen können.

00:25:20: Das ist auch gut so, Mitarbeiterinnen und Mitarbeiterinnen kosten auch Geld. Also das ist gut, weil das hat sich, wie soll ich sagen, das ist halt wie die Werkschalen.

00:25:28: Ja, gut, ich kann sagen, wo setze ich das eine an und wo setze ich das andere an?

00:25:31: Wir wissen auch aus Berechnungen, dass zum Beispiel unterschiedliche Job-Ufile von KI und Technologie einen unterschiedlichen Prozentzert haben, der mehr die Effizienz steigern wird.

00:25:42: Also zum Beispiel beim Konzipienten, der Konzipientin ist der Einsatz von KI größer als bei einem Senior-Partner oder einer Senior-Partnerin.

00:25:51: Oder einem Richter, der halt schon 20 Jahre seinen Job macht, weil Erfahrung auch wahnsinnig wichtig ist.

00:25:57: Und dass er auch einfließt, wie ich Entscheidungen treffe, wie schnell ich arbeite. Also wird es teurer oder billiger für die Klientinnen?

00:26:04: Die Realität ist, dass die Datenmenge unfassbar viel zunimmt.

00:26:08: Wir haben jetzt einerseits Wirtschaftskunden und da muss man sagen, wenn man Hausdurchsuchungen macht zum Beispiel, oder ein Insolvenzverfahren, da ist es ja nicht mehr so, dass ich vier Ordner mitnehme, oder sonst 200 Bene-Ordner sein.

00:26:18: Und da sind sich dann 50 Leute, die sich anschauen. Soll ich nehmen heute ein kleine, ein mutig kleine Exzellenatatenplatte mit und da sind zwei Terrapäher drauf.

00:26:27: Das können Menschen nicht mehr aber arbeiten. Aber auch im Privatbereich ist es so, wenn es eine Scheidung gibt, es gibt so wie viele Chat-Nachrichting,

00:26:35: es da gibt die dann irgendwer vorliegt, die beklagt und sagt, die Frau, die sich scheiden lassen möchte, ja das sind allmehr die Chat-Nachrichten.

00:26:41: Tausende, der letzten 20 Jahre, das kann niemand mehr lesen und auswerten, aber da sind total wichtige relevante Dinge drin.

00:26:48: Also für die Mandanten, das heißt nur, dass der Jurist, auch der Staatsanwalt, auch der Richter, auch der Anwalt, die brauchen diese Technik, weil wir jeden Tag mit der Technik umgehen, die Datenmenge so große, die können ohne das gar nicht mehr.

00:27:03: Insofern stellt sich die Frage nicht, die Frage ist nur, wie berechne ich sie? Gebe ich sie? Wie man heute gesagt sagt, es baaus Lage weiter?

00:27:11: Das nennt man also zum Beispiel, mich einfach Triefmarke, habe ich früher drauf gebt, hat 1,20 Euro kostet, habe ich 1,20 Euro verrechnet, plus 5% Aufschlag.

00:27:19: Oder rechn ich die Systeme und das wird sich aber in den nächsten Jahren ergeben. Aber ich befüße das, wird nicht billiger werden. Aber vielleicht auch nicht teurer.

00:27:29: Vielen lieben Dank, Sophie, wir sind am Ende unserer Sendung angelangt. Wie wir gehört haben, wird die Rechtsbranche noch sehr verändert werden durch künstliche Intelligenz und Schädt-GPD, ist aber auch schon sehr verändert worden.

00:27:42: Also es ist alles im Fluss offenbar. Die 3 wichtigsten, die in unserer heutigen Folge sind für mich.

00:27:47: KI sind so individuell, wie die Bereiche, auf die sie trainiert worden sind. Sie können aber zum Beispiel auch Antworten erfinden, die falsch sind.

00:27:58: Und die Arbeit der Rechtsanwaltsanwärter*innen wird trotzdem nicht überflüssig werden. Es gibt genug zu tun.

00:28:05: Vielen lieben Dank fürs dabei sein, fürs erklären, wie stand der Dinge ist, wie die Zukunft ausschauen wird.

00:28:11: Vielen lieben Dank auch euch, höhere*innen, fürs dranbleiben und fürs zuhören und bis zum nächsten Mal.

00:28:23: Das war die heutige Folge von "Weitergedacht", der Podcast der WZ. Wenn sie euch gefallen hat, folgt uns auf Instagram oder TikTok und schaut auf unsere Website wz.at vorbei.

00:28:32: Unser Podcast könnt ihr auf Spotify, Apple, Google und anderen Plattformen kostenlos abonnieren. Habt ihr Vorschläge für unsere nächsten Folgen?

00:28:39: Dann schickt uns eine Sprachnachricht über WhatsApp. Den Nummer lautet 0664 834 834.

00:28:48: [Musik]

00:28:53: Missing Link

00:28:56: SWR 2020

00:28:59: Thanks.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.