Sprachwissenschaftler_innen und Jurist_innen haben gemein, dass sie mit Texten arbeiten. Der juristische Umgang mit Texten ist allerdings geprägt und überformt von den Verfassungsgeboten der Rechtssicherheit und Vorhersehbarkeit der Interpretation von Normtexten, die eine disziplinäre Standardisierung erfordern: „Im Gegensatz zur grundsätzlich nicht normierbaren Alltagssprache oder zur Offenheit literaturwissenschaftlicher Interpretationen ist die Sprache des Rechts auf weitestgehende Verbindlichkeit, Deutlichkeit und Disziplin (zumindest) angelegt“ (Jeand'Heur 1998: 1287). Juristische Fachtexte lassen sich deshalb nur mit einem stark spezialisierten fachsprachlichen Sach- und (impliziten) Methodenwissen adäquat verstehen (vgl. hierzu Vogel 2012b: 34ff.).
Das spezialisierte Fach(sprach)wissen in der Jurisprudenz hat mindestens drei Funktionen: Erstens soll es juristische Entscheidungsarbeit valide und zuverlässig organisieren; zweitens soll es die Komplexität der Lebenswelt auf ‚rechtsrelevante’ und verfahrenssichere, also in juristischen Kategorien verarbeitbare, Ausschnitte reduzieren; drittens stiftet es binnendisziplinäre Identität (Ingroup): Wer die Sprache und die ‚Denke’ der Jurisprudenz nicht beherrscht, hat vor Gericht schlechte Karten.
All diese in der Regel für Laien nicht erkennbaren Funktionen stehen hinter sog. „ Subsumtionen“, also der juristischen Auslegungsmethode. Damit ist kein rechtspositivistisches ‚Anwenden‘ eines objektiv oder subjektiv vorgegebenen ‚Gesetzesinhalts‘ gemeint. Die juristische „Auslegung“ von Normen ist vielmehr ein komplexer Prozess der Ko(n)textualisierung von Lebenswelt (zu beurteilender Sachverhalt, „Fall“) und Textwelt (inter- und intratextuelle Verknüpfung von Norm- und dogmatischen Texten). Lebens- und Textwelt sind dabei nicht lediglich ‚gegeben’ und „im Sinne eines kybernetischen Informationsübertragungsmodells“ im Hinblick auf ‚die’ Norm zu „decodieren“ (so noch Baden 1977: 14ff.; vgl. dazu kritisch Busse 2005). Sie ‚geben’ dem hermeneutisch tätigen Rechtsarbeiter vielmehr sinnlich wahrnehmbare Hinweisreize (Gumperz 1982: 131f.), die gemeinsam mit bereits bestehendem, institutionalisiertem juristischen Norm(sprach)wissen in mentalen Modellen Sinn-voll gemacht werden können (Hörmann 1980). Rechtsnormen sind also keine absoluten Entitäten, sondern Ergebnis konstruktiver Textarbeit mit unterschiedlichen versprachlichten Eingangsdaten und Geltungsansprüchen (Müller et al. 1997; Felder 2003).
Seit rund 30 Jahren widmet sich die Rechtslinguistik als gemeinsame Teildisziplin von Rechts- und Sprachwissenschaft diesen Vertextungsverfahren im Recht (vgl. Vogel 2016). Juristische und linguistische Untersuchungen erfolgten dabei bislang ausschließlich mittels qualitativer Zugänge und auf Basis weniger hundert Texte. Die Ergebnisse geben wichtige Einblicke in die Mikroprozesse unseres sprachbasierten Rechtssystems, sei es vor Gericht, in der Verwaltung oder in der Gesetzgebung (Überblick bei Felder / Vogel 2016). In der frühen Rechtskybernetik und heutigen Rechtsinformatik hingegen wird das Recht meist als logisch operierendes Ontologiesystem zu formalisieren versucht, das die semantisch Struktur seiner realen performativen Bearbeitung jedoch vernachlässigt (vgl. zur Kritik am „Subsumtionsautomaten 2.0“ Kotsoglou 2014; Vogel 2015). Erst neuere Ansätze einer „evidenzbasierten Jurisprudenz“ (Hamann 2014) und rechtstheoretisch fundierten Korpuslinguistik in den USA (Mouritsen 2010, 2011) sowie in Deutschland (Vogel 2012a; Vogel et al. 2015; Hamann 2015) versprechen praxisnahe Analysen und Einsichten in die ‚Makroökonomik‘ juristischer Fachsprache und -kommunikation.
An dieser Stelle setzt ein seit 2014 laufendes und von der Heidelberger Akademie der Wissenschaften finanziertes Projekt zur Konzeption und Auswertung eines „Juristischen Referenzkorpus“ (JuReko) an (Vogel / Hamann 2015). Ziel des Projektes, das den Kern der „International Research Group Computer Assisted Legal Linguistics“ (CAL 2 2014-2016) bildet, ist im ersten Schritt der Aufbau eines kontrollierten, zunächst statischen Fachtext-Korpus, das alle wichtigen Textsorten aus Judikative, Legislative und Rechtswissenschaft umfasst (v.a. Aufsätze aus juristischen Fachzeitschriften, Entscheidungstexte und Normtexte; Zielgröße: rund eine Milliarde fortlaufender Wortformen). Die Textdaten werden zunächst im html-Format gewonnen und anschließend in mehreren Konvertierungschritten TEI-P5-konform kodiert. Dafür kommen xsl-Transformationen zum Einsatz, die auf die unterschiedlichen Webseitenstrukturen angepasst werden. Im Anschluss werden die Texte mit Part-of-Speech und weiteren Annotationen und Metadaten angereichert, wobei die speziellen Anforderungen einer rechtslinguistischen Textanalyse und -verarbeitung im Vordergrund stehen.
Das Korpus bildet im zweiten Schritt die Grundlage für die Erprobung neuer computerlinguistischer Methoden zur Analyse insbesondere juristischer Semantik bzw. Dogmatik sowie zur Beschreibung von Wortschätzen und grammatischen Mustern in verschiedenen Rechtsbereichen auf Basis geeigneter Metriken. In Zusammenarbeit mit Praktikern aus Gesetzgebung und Rechtsprechung werden weitere Untersuchungsprojekte abgeleitet und vorbereitet. Hierzu zählt etwa die Entwicklung von Werkzeugen für die rechtslinguistisch wie korpusstatistisch-empirisch fundierte Optimierung der Gesetzesredaktion.
Der Vortrag stellt das Infrastrukturvorhaben „JuReko“ vor und diskutiert Möglichkeiten und Grenzen des durch die Projektgruppe entwickelten Ansatzes der „Computergestützten Rechtslinguistik“ als komplementären Beitrag zur qualitativen, juristischen Hermeneutik. Dabei wird anhand von Beispielen sowohl auf die textlinguistischen als auch technischen Details des Projektes eingegangen. Im Ausblick steht die Erweiterung des JuReko um Rechtstexte des britischen Case Law als Ausgangspunkt für ein Europäisches Rechtskorpus (European Law Corpus) und damit eine weltweit einzigartige Grundlage für rechts(sprach)kulturvergleichende Studien.