Ein Leitfaden zur Philosophie: Ein Blick auf Schlüsselkonzepte und Ideen - 2024
Logik, Methodologie und Methoden der wissenschaftlichen Erkenntnis
Besonderheiten des wissenschaftlichen Wissens
Wissen und Erkenntnis
Das bewusste, zielgerichtete Handeln zur Formung und Entwicklung von Wissen wird durch Normen und Regeln reguliert und folgt bestimmten Methoden und Verfahren. Die Identifikation und Ausarbeitung dieser Normen, Regeln, Methoden und Verfahren, die im Wesentlichen als Apparatur der bewussten Kontrolle und Regulierung des Prozesses der wissenschaftlichen Wissensbildung und -entwicklung dienen, stellt das Fachgebiet der Logik und Methodologie der wissenschaftlichen Erkenntnis dar. Dabei wird der Begriff “Logik“ traditionell mit der Feststellung und Formulierung von Regeln für den Schluss von Wissen auf anderes Wissen und für die Bestimmung von Begriffen in Verbindung gebracht, was seit der Antike das Thema der formalen Logik ausmachte. Heute wird die Entwicklung logischer Normen für das Schließen, Beweisen und Bestimmen als Arbeitsmethoden für Aussagen und Begriffe in der Wissenschaft auf der Grundlage der modernen mathematischen Logik betrieben. Das Fachgebiet der Methodologie der Wissenschaft und deren methodische Analyse wird jedoch weiter gefasst und umfasst eine Vielzahl von Methoden, Verfahren und Operationen der wissenschaftlichen Forschung, deren Normen und Ideale sowie die Formen der Organisation wissenschaftlichen Wissens. Die moderne Methodologie der Wissenschaft nutzt intensiv das Material der Wissenschaftsgeschichte und ist eng mit dem gesamten Komplex der Wissenschaften verbunden, die den Menschen, die Gesellschaft und die Kultur untersuchen.
In der systematischen Logik-Methodologie, die der Analyse wissenschaftlicher Erkenntnis dient, können verschiedene Ebenen unterschieden werden.
Die theoretische Grundlage aller Formen der methodologischen Untersuchung wissenschaftlicher Erkenntnis im Allgemeinen bildet der philosophisch-epistemologische Analyseansatz der Wissenschaft. Dessen Besonderheit besteht darin, dass wissenschaftliche Erkenntnis hier als ein Element eines weiteren Systems betrachtet wird — der erkenntnistheoretischen Tätigkeit im Verhältnis zur objektiven Welt und ihrer Einbindung in die praktisch-transformative Tätigkeit des Menschen. Die Erkenntnistheorie ist nicht nur eine allgemeine Wissenschaft vom Wissen, sondern eine philosophische Lehre über die Natur des Wissens.
Die Epistemologie fungiert als theoretische Grundlage für verschiedene speziell-wissenschaftliche Formen der methodologischen Analyse und jener Ebenen, auf denen die Untersuchung wissenschaftlicher Erkenntnis mit nicht-philosophischen Mitteln durchgeführt wird. Sie zeigt, dass nur durch das Verständnis von Erkenntnis als der Bildung und Entwicklung des idealen Plans menschlicher praktisch-transformierender Tätigkeit die grundlegenden Eigenschaften des Erkenntnisprozesses, die Essenz des Wissens im Allgemeinen und seiner verschiedenen Formen, einschließlich des wissenschaftlichen Wissens, analysiert werden können. Gleichzeitig ist es heute unmöglich, nicht nur die wissenschaftliche Erkenntnis selbst, sondern auch ihre philosophisch-epistemologische Problematik zu analysieren, ohne Material aus spezielleren Bereichen der Methodologie der Wissenschaft heranzuziehen. Der philosophische Analyseansatz des Problems der Wahrheit in der Wissenschaft erfordert zum Beispiel die Betrachtung der Mittel und Methoden der empirischen Begründung wissenschaftlichen Wissens, der spezifischen Merkmale und Formen der Aktivität des Subjekts der wissenschaftlichen Erkenntnis sowie der Rolle und des Status von theoretischen idealisierten Konstruktionen.
Jede Form der Untersuchung wissenschaftlichen Wissens, auch wenn sie direkt auf die inneren Probleme einer speziellen Wissenschaft ausgerichtet ist, enthält potenziell die Keime einer philosophischen Problematik. Sie stützt sich implizit auf Voraussetzungen, die, wenn sie bewusst gemacht und zum Gegenstand der Analyse werden, schließlich bestimmte philosophische Positionen voraussetzen.
Eine der Hauptaufgaben der methodologischen Analyse besteht darin, die Methoden der erkenntnistheoretischen Tätigkeit, die in der Wissenschaft verwendet werden, zu identifizieren und zu untersuchen sowie die Möglichkeiten und Grenzen ihrer Anwendbarkeit zu bestimmen. In ihrer erkenntnistheoretischen Tätigkeit, einschließlich der wissenschaftlichen, nutzen Menschen bewusst oder unbewusst die unterschiedlichsten Methoden. Es ist offensichtlich, dass das bewusste Anwenden von Methoden, das auf dem Verständnis ihrer Möglichkeiten und Grenzen basiert, der Tätigkeit des Menschen größere Rationalität und Effizienz verleiht.
Die methodologische Analyse des Prozesses der wissenschaftlichen Erkenntnis ermöglicht die Unterscheidung von zwei Typen von Techniken und Methoden der Forschung. Erstens gibt es Techniken und Methoden, die dem menschlichen Wissen im Allgemeinen eigen sind und auf deren Grundlage sowohl wissenschaftliches als auch alltägliches Wissen entsteht. Dazu gehören Analyse und Synthese, Induktion und Deduktion, Abstraktion und Verallgemeinerung usw. Diese werden als allgemeine logische Methoden bezeichnet. Zweitens existieren besondere Methoden, die nur für wissenschaftliche Erkenntnis charakteristisch sind — wissenschaftliche Forschungsmethoden. Diese lassen sich wiederum in zwei Hauptgruppen unterteilen: Methoden zur Konstruktion empirischen Wissens und Methoden zur Konstruktion theoretischen Wissens.
Mit den allgemeinen logischen Methoden entfaltet sich das Wissen schrittweise und zeigt die inneren wesentlichen Merkmale des Objekts, die Verbindungen seiner Elemente und deren Wechselwirkungen. Um diese Schritte zu vollziehen, muss das Ganze (gedanklich oder praktisch) in seine Bestandteile zerlegt und dann untersucht werden, wobei Eigenschaften und Merkmale hervorgehoben, Verbindungen und Beziehungen verfolgt und ihre Rolle im System des Ganzen ermittelt wird. Nachdem diese erkenntnistheoretische Aufgabe gelöst ist, können die Teile wieder zu einem einheitlichen Ganzen zusammengefügt werden, und es entsteht eine konkret-allgemeine Vorstellung, d.h. eine Vorstellung, die auf tiefem Wissen über die innere Natur des Objekts beruht. Dieses Ziel wird mit Hilfe von Operationen wie Analyse und Synthese erreicht.
Analyse bedeutet die Zerlegung eines Ganzen in seine Bestandteile (Seiten, Merkmale, Eigenschaften oder Beziehungen), um diese umfassend zu untersuchen.
Synthese ist das Zusammenführen der zuvor herausgearbeiteten Teile (Seiten, Merkmale, Eigenschaften oder Beziehungen) des Objekts zu einem einheitlichen Ganzen.
Die objektive Voraussetzung für diese erkenntnistheoretischen Operationen ist die Struktur der materiellen Objekte, die Fähigkeit ihrer Elemente, sich umzustrukturieren, zusammenzuführen oder zu trennen.
Analyse und Synthese sind die grundlegendsten und einfachsten Methoden des Wissens, die im Fundament menschlichen Denkens verankert sind. Gleichzeitig sind sie die universellsten Methoden, die allen Ebenen und Formen des Denkens eigen sind.
Ein weiterer allgemeiner logischer Ansatz des Wissens ist die Abstraktion. Abstraktion ist eine spezielle Denkweise, bei der bestimmte Eigenschaften und Beziehungen des untersuchten Phänomens ausgeklammert werden, während die für uns interessierenden Eigenschaften und Beziehungen hervorgehoben werden. Das Ergebnis der abstrahierenden Tätigkeit des Denkens ist die Bildung verschiedener Arten von Abstraktionen, die sowohl einzelne Begriffe und Kategorien als auch deren Systeme umfassen.
Die Gegenstände der objektiven Realität besitzen unendliche Mengen verschiedener Eigenschaften, Beziehungen und Verhältnisse. Einige dieser Eigenschaften ähneln einander und bedingen sich gegenseitig, andere hingegen sind verschieden und weitgehend selbständig. So zum Beispiel ist das Merkmal der fünf Finger der menschlichen Hand, das mit fünf Bäumen, fünf Steinen, fünf Schafen eindeutig korrespondiert, unabhängig von der Größe der Objekte, ihrer Farbe, ihrer Zugehörigkeit zu lebenden oder unbelebten Körpern usw. Im Prozess der Erkenntnis und Praxis wird zunächst diese relative Selbständigkeit der einzelnen Eigenschaften festgestellt, und diejenigen werden herausgegriffen, deren Beziehungen wichtig sind, um den Gegenstand zu verstehen und seine Essenz zu offenbaren.
Dieser Prozess des Heraushebens setzt voraus, dass diese Eigenschaften und Beziehungen mit speziellen ersetzenden Zeichen bezeichnet werden, durch die sie im Bewusstsein als Abstraktionen fixiert werden. So wird beispielsweise das genannte Merkmal der fünf Finger, das eindeutig mit fünf anderen Objekten korrespondiert, durch den speziellen Begriff “fünf“ oder die Zahl dargestellt, welche die Abstraktion der entsprechenden Zahl ausdrücken.
Wenn wir eine bestimmte Eigenschaft oder Beziehung einer Reihe von Objekten abstrahieren, schaffen wir damit die Grundlage, um diese Objekte zu einer einzigen Klasse zusammenzufassen. In Bezug auf die individuellen Merkmale jedes Objekts, das in diese Klasse fällt, tritt das vereinigende Merkmal als ein allgemeines hervor. Verallgemeinerung ist eine Denkoperation, bei der die allgemeinen Eigenschaften und Merkmale der Objekte festgestellt werden.
Die Verallgemeinerung erfolgt als Übergang von einem speziellen oder weniger allgemeinen Begriff und Urteil zu einem allgemeineren Begriff oder Urteil. So sind die Begriffe “Ahorn“, “Linde“, “Birke“ usw. primäre Verallgemeinerungen, von denen man zu dem allgemeineren Begriff “Laubbaum“ übergehen kann. Indem man die Klasse der Objekte erweitert und die gemeinsamen Eigenschaften dieser Klasse hervorhebt, kann man ständig breitere Begriffe bilden, beispielsweise zu den Begriffen “Baum“, “Pflanze“, “lebendes Wesen“.
Im Prozess der Forschung muss man oft, gestützt auf bereits vorhandenes Wissen, Schlüsse über Unbekanntes ziehen. Wenn wir vom Bekannten zum Unbekannten übergehen, können wir entweder Wissen über einzelne Fakten verwenden, um allgemeine Prinzipien zu entdecken, oder im Gegenteil, auf allgemeine Prinzipien zurückgreifen, um Schlüsse über einzelne Phänomene zu ziehen. Ein solcher Übergang erfolgt durch logische Operationen wie Induktion und Deduktion.
Induktion ist eine Forschungsmethode und eine Art des Schließens, bei der eine allgemeine Schlussfolgerung auf der Grundlage einzelner Prämissen gezogen wird. Deduktion ist eine Methode des Schließens, bei der aus allgemeinen Prämissen notwendig eine Schlussfolgerung von spezifischem Charakter folgt.
Die Grundlage der Induktion bilden Erfahrung, Experiment und Beobachtung, bei denen einzelne Fakten gesammelt werden. Anschließend werden diese Fakten untersucht, analysiert, und man stellt allgemeine und wiederkehrende Merkmale einer Reihe von Phänomenen fest, die zu einer bestimmten Klasse gehören. Auf dieser Grundlage wird das induktive Schlussfolgern aufgebaut, wobei die Prämissen Urteile über einzelne Objekte und Phänomene darstellen, die ein wiederkehrendes Merkmal angeben, sowie ein Urteil über die Klasse, die diese Objekte und Phänomene umfasst. Als Schlussfolgerung erhält man ein Urteil, in dem das Merkmal der gesamten Klasse zugeschrieben wird. So stellt man zum Beispiel bei der Untersuchung der Eigenschaften von Wasser, Alkoholen und flüssigen Ölen fest, dass alle diese Substanzen die Eigenschaft der Elastizität besitzen. Wenn man weiß, dass Wasser, Alkohole und flüssige Öle zur Klasse der Flüssigkeiten gehören, folgt daraus, dass Flüssigkeiten elastisch sind.
Deduktion unterscheidet sich von Induktion durch den genau entgegengesetzten Denkweg. In der Deduktion wird, wie aus der Definition ersichtlich, auf allgemein bekanntes Wissen zurückgegriffen, um eine Schlussfolgerung von spezifischem Charakter zu ziehen. Eine der Prämissen der Deduktion muss stets ein allgemeines Urteil sein. Wenn dieses durch induktives Schließen gewonnen wurde, ergänzt die Deduktion die Induktion, indem sie unseren Wissensbereich erweitert. Wenn wir beispielsweise wissen, dass alle Metalle elektrisch leitfähig sind und festgestellt haben, dass Kupfer zur Gruppe der Metalle gehört, folgt aus diesen beiden Prämissen notwendig die Schlussfolgerung, dass Kupfer elektrisch leitfähig ist.
Besonders große erkenntnistheoretische Bedeutung zeigt die Deduktion jedoch, wenn die allgemeine Prämisse nicht einfach eine induktive Verallgemeinerung ist, sondern eine hypothetische Annahme, etwa eine neue wissenschaftliche Idee. In diesem Fall wird die Deduktion zum Ausgangspunkt der Entstehung eines neuen theoretischen Systems. Das auf diese Weise geschaffene theoretische Wissen bestimmt den weiteren Verlauf empirischer Forschungen und lenkt den Aufbau neuer induktiver Verallgemeinerungen.
Wenn wir die Eigenschaften und Merkmale der Phänomene der uns umgebenden Wirklichkeit untersuchen, können wir diese nicht sofort in ihrer Gesamtheit und in vollem Umfang begreifen. Wir nähern uns ihrem Studium schrittweise und decken immer wieder neue Eigenschaften auf. Nachdem wir einige Eigenschaften eines Gegenstands untersucht haben, stellen wir möglicherweise fest, dass diese mit den Eigenschaften eines anderen, bereits gut untersuchten Gegenstands übereinstimmen. Wenn wir diese Ähnlichkeit feststellen und die Anzahl der übereinstimmenden Merkmale ausreichend groß ist, können wir annehmen, dass auch andere Eigenschaften dieser Objekte übereinstimmen. Dieser Gedankengang bildet die Grundlage der Analogie.
Analogie ist eine Erkenntnismethode, bei der auf der Grundlage von Ähnlichkeiten zwischen Objekten in einigen Merkmalen auf ihre Ähnlichkeiten in anderen Merkmalen geschlossen wird. So wurden bei der Untersuchung des Lichts Phänomene wie Beugung und Interferenz festgestellt. Diese Eigenschaften waren zuvor im Schall entdeckt worden und ergaben sich aus seiner wellenartigen Natur. Auf der Grundlage dieser Ähnlichkeit schloss X. Huygens, dass auch Licht eine wellenartige Natur hat. Ebenso vermutete L. de Broglie, dass es eine gewisse Ähnlichkeit zwischen den Teilchen der Materie und dem Feld gibt, und kam zu dem Schluss, dass auch die Teilchen der Materie wellenartige Eigenschaften besitzen.
Die Schlüsse durch Analogie, die in ihrem weitesten Sinne als Übertragung von Informationen über einige Objekte auf andere verstanden werden können, bilden die erkenntnistheoretische Grundlage des Modellierens.
Modellierung ist das Studium eines Objekts (Originals) durch die Schaffung und Untersuchung seiner Kopie (Modells), die das Original in Bezug auf bestimmte Aspekte ersetzt, die für das Verständnis des Objekts von Interesse sind.
Ein Modell entspricht stets dem Objekt — dem Original — in den Eigenschaften, die untersucht werden, unterscheidet sich jedoch in einer Reihe anderer Merkmale, wodurch das Modell für die Untersuchung des interessierenden Objekts nützlich wird.
Das Modellieren wird durch die Notwendigkeit diktiert, solche Seiten von Objekten zu offenbaren, die entweder nicht durch direkte Untersuchung erfasst werden können oder deren Untersuchung aus rein wirtschaftlichen Gründen unvorteilhaft wäre. Der Mensch kann zum Beispiel nicht direkt den natürlichen Prozess der Diamantenbildung, den Ursprung und die Entwicklung des Lebens auf der Erde oder eine Reihe von Phänomenen im Mikro- und Makrokosmos beobachten. Daher ist es notwendig, solche Phänomene künstlich in einer Form nachzubilden, die für Beobachtung und Studium geeignet ist. In vielen Fällen ist es viel vorteilhafter und wirtschaftlicher, anstatt mit dem Objekt selbst zu experimentieren, ein Modell zu erstellen und dieses zu untersuchen.
Modelle, die in der alltäglichen und wissenschaftlichen Erkenntnis verwendet werden, lassen sich in zwei große Klassen unterteilen: materielle und ideale. Erstere sind natürliche Objekte, die in ihrer Funktionsweise den Naturgesetzen unterliegen. Letztere sind ideale Gebilde, die in entsprechender Zeichenform fixiert sind und nach den Gesetzen der Logik funktionieren, die die Welt widerspiegeln.
In der heutigen Phase des wissenschaftlich-technischen Fortschritts hat das Computer-Modellieren in der Wissenschaft und in verschiedenen Praxisbereichen große Verbreitung gefunden. Ein Computer, der nach einem speziellen Programm arbeitet, ist in der Lage, die unterschiedlichsten realen Prozesse zu modellieren (beispielsweise Schwankungen der Marktpreise, Bevölkerungswachstum, den Start und den Orbit eines Satelliten oder chemische Reaktionen). Die Untersuchung jedes solchen Prozesses erfolgt durch das entsprechende Computermodell.
Unter den Methoden wissenschaftlicher Forschung, wie bereits erwähnt, unterscheidet man Methoden, die dem empirischen und theoretischen Untersuchungsniveau eigen sind. Allgemeinlogische Methoden werden auf beiden Ebenen angewendet, aber sie manifestieren sich in einer Weise, die für jede Ebene spezifisch ist, durch bestimmte Verfahren und Methoden.
Eine der wichtigsten Methoden der empirischen Erkenntnis ist die Beobachtung. Unter Beobachtung versteht man das gezielte Wahrnehmen von Phänomenen der objektiven Wirklichkeit, bei dem Wissen über die äußeren Seiten, Eigenschaften und Beziehungen der untersuchten Objekte gewonnen wird.
Der Prozess der wissenschaftlichen Beobachtung ist kein passives Betrachten der Welt, sondern eine besondere Art der Tätigkeit, die sowohl den Beobachter, das Beobachtungsobjekt als auch die Mittel zur Beobachtung umfasst. Zu letzteren gehören Instrumente und das materielle Trägermedium, das die Information vom Objekt zum Beobachter überträgt (zum Beispiel Licht).
Ein wesentliches Merkmal der Beobachtung ist ihr zielgerichteter Charakter. Diese Zielgerichtetheit ist durch die Existenz von vorläufigen Ideen und Hypothesen bedingt, die dem Beobachtungsprozess Aufgaben stellen. Wissenschaftliche Beobachtungen sind im Gegensatz zu gewöhnlichem Schauen immer von einer wissenschaftlichen Idee genährt, sie sind durch bereits bestehendes Wissen vermittelt, das anzeigt, was und wie man beobachten soll.
Beobachtungen als Methode der empirischen Forschung sind immer mit der Beschreibung verbunden, die die Ergebnisse der Beobachtung mithilfe bestimmter Zeichenmittel festhält und überträgt. Empirische Beschreibung ist die Fixierung von Informationen über Objekte, die in der Beobachtung durch natürliche oder künstliche Sprache vermittelt werden.
Durch Beschreibung wird sinnliche Information in die Sprache von Begriffen, Zeichen, Diagrammen, Zeichnungen, Grafiken und Zahlen übertragen, wodurch sie eine Form annimmt, die für eine weitergehende rationale Bearbeitung (Systematisierung, Klassifizierung und Verallgemeinerung) geeignet ist.
Die Beschreibung wird in zwei Hauptarten unterteilt: qualitative und quantitative.
Die quantitative Beschreibung erfolgt unter Verwendung der mathematischen Sprache und umfasst verschiedene Messverfahren. Im engeren Sinne kann sie als Fixierung von Messdaten verstanden werden. Im weiteren Sinne umfasst sie auch das Finden empirischer Abhängigkeiten zwischen den Messergebnissen. Erst mit der Einführung des Messverfahrens wird die Naturwissenschaft zur exakten Wissenschaft. Grundlage der Messoperation ist der Vergleich von Objekten nach bestimmten ähnlichen Eigenschaften oder Seiten. Um einen solchen Vergleich zu ermöglichen, müssen bestimmte Maßeinheiten vorhanden sein, deren Vorhandensein es ermöglicht, die untersuchten Eigenschaften in quantitativen Merkmalen auszudrücken. Dies wiederum eröffnet die breite Verwendung mathematischer Mittel in der Wissenschaft und schafft Voraussetzungen für die mathematische Darstellung empirischer Abhängigkeiten. Vergleich wird nicht nur im Zusammenhang mit Messungen verwendet. In verschiedenen Teilbereichen der Wissenschaft (wie der Biologie oder Linguistik) werden vergleichende Methoden ebenfalls weit verbreitet angewendet.
Beobachtungen und Vergleiche können sowohl relativ unabhängig als auch in enger Verbindung mit Experimenten durchgeführt werden. Im Gegensatz zu gewöhnlicher Beobachtung greift der Forscher beim Experiment aktiv in den Verlauf des untersuchten Prozesses ein, um bestimmte Kenntnisse darüber zu erlangen. Das untersuchte Phänomen wird hier unter speziell geschaffenen und kontrollierten Bedingungen beobachtet, was es ermöglicht, den Verlauf des Phänomens bei Wiederholung der Bedingungen jedes Mal zu rekonstruieren.
Das aktive Eingreifen des Forschers in den natürlichen Prozess, das künstliche Schaffen von Interaktionsbedingungen, bedeutet keineswegs, dass der Experimentator nach Belieben Eigenschaften von Objekten erschafft oder ihnen zuschreibt. Weder Radioaktivität noch Lichtdruck noch konditionierte Reflexe sind Eigenschaften, die von den Forschern erfunden oder ausgedacht wurden; sie wurden vielmehr in experimentellen Situationen entdeckt, die vom Menschen selbst geschaffen wurden. Seine schöpferische Fähigkeit äußert sich lediglich in der Kreation neuer Kombinationen von Naturobjekten, durch die verborgene, aber objektive Eigenschaften der Natur selbst aufgedeckt werden.
Das Wechselspiel von Objekten in experimentellen Untersuchungen kann gleichzeitig auf zwei Ebenen betrachtet werden: sowohl als menschliche Aktivität als auch als Wechselwirkung der Natur selbst. Die Fragen stellt der Forscher, die Antworten gibt die Natur.
Der erkenntnistheoretische Wert des Experiments liegt nicht nur darin, dass es Antworten auf zuvor gestellte Fragen liefert, sondern auch darin, dass neue Probleme im Verlauf des Experiments aufgeworfen werden, deren Lösung neue Experimente und die Schaffung neuer experimenteller Einrichtungen erfordert.
Ein wesentlicher methodischer Ansatz in der theoretischen Forschung ist die zunehmend in der Wissenschaft angewandte Formalisierung, die mit ihrer zunehmenden Mathematikbezogenheit einhergeht. Dieser Ansatz besteht darin, abstrakt-mathematische Modelle zu entwickeln, die das Wesen der untersuchten Prozesse der Wirklichkeit offenbaren. Bei der Formalisierung werden die Überlegungen zu Objekten in den Bereich der Handhabung mit Zeichen (Formeln) übertragen. Die Beziehungen zwischen den Zeichen ersetzen die Aussagen über die Eigenschaften der Beziehungen zwischen den Objekten. Auf diese Weise entsteht ein allgemeines symbolisches Modell eines bestimmten Fachgebiets, das es ermöglicht, die Struktur verschiedener Phänomene und Prozesse zu erkennen, wobei von deren qualitativen Merkmalen abstrahiert wird. Der deduktive Schluss von einer Formel zur anderen nach den strengen Regeln der Logik und Mathematik stellt eine formale Untersuchung der grundlegenden Merkmale der Struktur verschiedenartiger, oft sehr voneinander entfernte Phänomene dar. Besonders weit verbreitet ist die Formalisierung in der Mathematik, Logik und modernen Linguistik.
Ein spezifischer methodischer Ansatz zum Aufbau einer ausgereiften Theorie ist die axiomatische Methode. Sie wurde erstmals in der Mathematik beim Aufbau der euklidischen Geometrie angewendet und fand dann im Laufe der historischen Entwicklung der Wissenschaften auch Eingang in die empirischen Disziplinen. In diesen wurde sie jedoch in einer besonderen Form des hypothetisch-deduktiven Verfahrens verwendet, um Theorien zu entwickeln. Lassen Sie uns nun die Essenz jedes dieser Methoden betrachten.
Beim axiomatischen Aufbau theoretischen Wissens werden zunächst eine Reihe von Grundannahmen formuliert, die keinen Beweis erfordern (zumindest innerhalb des Rahmens dieses Wissenssystems). Diese Annahmen werden als Axiome oder Postulate bezeichnet. Anschließend werden aus diesen nach bestimmten Regeln eine Reihe von abgeleiteten Aussagen formuliert. Die Gesamtheit der Anfangsaxiome und der daraus abgeleiteten Sätze bildet die axiomatisch aufgebaute Theorie.
Axiome sind Aussagen, deren Wahrheitsgehalt nicht bewiesen werden muss. Der logische Schluss ermöglicht es, die Wahrheit der Axiome auf die aus ihnen abgeleiteten Konsequenzen zu übertragen. Das Befolgen bestimmter, genau festgelegter Schlussregeln erlaubt es, den Denkprozess beim Aufbau des axiomatischen Systems zu ordnen und das Argument strenger und präziser zu gestalten.
Die axiomatische Methode entwickelte sich parallel zum Fortschritt der Wissenschaft. Die “Elemente“ von Euklid waren die erste Phase ihrer Anwendung und wurden als inhaltliche Axiomatik bezeichnet. In dieser Phase wurden die Axiome auf Grundlage bereits vorhandenen Wissens eingeführt und als intuitiv offensichtliche Annahmen ausgewählt. Auch die Schlussregeln in diesem System wurden als intuitiv einleuchtend betrachtet und nicht explizit festgelegt. Dies schränkte die Möglichkeiten der inhaltlichen Axiomatik jedoch ein.
Diese Einschränkungen der inhaltlich-axiomatischen Herangehensweise wurden durch die Weiterentwicklung der axiomatischen Methode überwunden, als der Übergang von der inhaltlichen zur formalen und schließlich zur formalisierten Axiomatik vollzogen wurde.
Bei der formalen Konstruktion eines axiomatischen Systems wird nicht mehr verlangt, nur intuitiv offensichtliche Axiome auszuwählen, deren Geltungsbereich bereits festgelegt ist. Axiome werden formell eingeführt, als Beschreibung eines bestimmten Systems von Beziehungen: Die in den Axiomen vorkommenden Begriffe werden zunächst nur durch ihre Beziehungen zueinander definiert. Damit werden die Axiome in einem formalen System als eine Art Definition der Ausgangskonzepte (Begriffe) betrachtet. Unabhängige Definitionen dieser Begriffe existieren anfangs nicht.
Die weitere Entwicklung der axiomatischen Methode führte zur dritten Phase — dem Aufbau formalisierten axiomatischen Systeme.
In dieser Phase wird das formale Betrachten der Axiome durch die Verwendung mathematischer Logik ergänzt, die als Mittel zur strengen Ableitung der Konsequenzen aus den Axiomen dient. Infolgedessen wird das axiomatische System als eine besondere formalisierte Sprache (Berechnung) aufgebaut. Zunächst werden Ausgangszeichen eingeführt — Begriffe —, dann werden die Regeln für ihre Kombination in Formeln festgelegt, eine Liste von anfänglich ohne Beweis akzeptierten Formeln erstellt und schließlich die Regeln für das Ableiten abgeleiteter Formeln aus den Hauptformeln definiert. So entsteht ein abstraktes symbolisches Modell, das anschließend auf verschiedenen Objekt-Systemen interpretiert wird.
Der Aufbau formalisierten axiomatischen Systeme führte vor allem in der Mathematik zu großen Erfolgen und nährte die Vorstellung von der Möglichkeit, Mathematik rein durch formale Mittel weiterzuentwickeln. Doch bald zeigte sich die Begrenztheit dieser Auffassungen. Insbesondere Kurt Gödel bewies 1931 seine Theoreme über die prinzipielle Unvollständigkeit ausreichend entwickelter formaler Systeme. Gödel zeigte, dass es unmöglich ist, ein solches formales System zu konstruieren, dessen Menge an abgeleiteten (beweisbaren) Formeln das gesamte Spektrum der inhaltlich wahren Aussagen einer Theorie abdecken würde, deren Formalisierung dieses System anstrebt. Ein weiteres wichtiges Ergebnis von Gödels Theoremen ist, dass es unmöglich ist, die Konsistenz solcher Systeme mit ihren eigenen Mitteln zu entscheiden. Gödels Theoreme und eine Reihe anderer Untersuchungen zur Fundierung der Mathematik zeigten, dass die axiomatische Methode ihre Anwendungsgrenzen hat. So lässt sich beispielsweise die gesamte Mathematik nicht als ein einziges, axiomatisch aufgebautes System darstellen, was jedoch die erfolgreiche Axiomatisierung ihrer einzelnen Teilbereiche nicht ausschließt.
Im Gegensatz zur Mathematik und Logik muss in den empirischen Wissenschaften die Theorie nicht nur widerspruchsfrei, sondern auch durch experimentelle Beobachtungen gestützt sein. Daher ergeben sich besondere Merkmale des Aufbaus theoretischen Wissens in den empirischen Wissenschaften. Ein spezifisches Verfahren dieses Aufbaus ist die hypothetisch-deduktive Methode, deren Wesen darin besteht, ein System deduktiv miteinander verbundener Hypothesen zu schaffen, aus denen schließlich Aussagen über empirische Tatsachen abgeleitet werden.
Diese Methode wurde in der präzisen Naturwissenschaft bereits im 17. Jahrhundert verwendet, aber erst kürzlich wurde sie als Gegenstand methodologischer Analyse betrachtet, als die Spezifik des theoretischen Wissens im Vergleich zur empirischen Forschung zu verstehen begann.
Entwickeltes theoretisches Wissen wird nicht “von unten“ durch induktive Verallgemeinerungen wissenschaftlicher Fakten aufgebaut, sondern entfaltet sich gewissermaßen “von oben“ in Bezug auf die empirischen Daten. Die Methode des Aufbaus solchen Wissens besteht darin, zunächst eine hypothetische Konstruktion zu entwickeln, die deduktiv entfaltet wird und ein ganzes System von Hypothesen bildet, das dann einer experimentellen Prüfung unterzogen wird, bei der es präzisiert und konkretisiert wird. Dies ist das Wesen der hypothetisch-deduktiven Entfaltung einer Theorie.
Die deduktive Systematik der Hypothesen besitzt eine hierarchische Struktur. Zunächst gibt es darin Hypothesen des obersten Levels und Hypothesen der unteren Ebenen, die als Folgerungen der ersten Hypothesen auftreten.
Die durch den hypothetisch-deduktiven Ansatz geschaffene Theorie kann schrittweise durch neue Hypothesen ergänzt werden, jedoch nur bis zu einem bestimmten Punkt, an dem das weitere Vorankommen der Theorie auf Schwierigkeiten stößt. In solchen Perioden wird es notwendig, den Kern der theoretischen Konstruktion selbst umzustrukturieren, eine neue hypothetisch-deduktive Systematik aufzustellen, die es ermöglicht, die untersuchten Fakten ohne die Einführung zusätzlicher Hypothesen zu erklären und zudem neue Fakten vorherzusagen. Häufig werden in solchen Phasen nicht nur eine, sondern mehrere konkurrierende hypothetisch-deduktive Systeme vorgeschlagen. Zum Beispiel konkurrierten in der Phase der Umstrukturierung der Elektrodynamik die Systeme von H. A. Lorentz, Albert Einstein und die der Hypothese von J. A. Poincaré, die der von Einstein ähnelt. Im Prozess der Entwicklung der Quantenmechanik standen sich die Wellenmechanik von L. de Broglie — E. Schrödinger und die Matrix-Wellenmechanik von W. Heisenberg gegenüber.
Jedes hypothetisch-deduktive System verwirklicht ein besonderes Forschungsprogramm, dessen Wesen die Hypothese des obersten Levels ausdrückt. Daher stellt der Wettbewerb zwischen verschiedenen hypothetisch-deduktiven Systemen einen Kampf unterschiedlicher Forschungsprogramme dar. So formulierten die Postulate Lorentz’ das Programm zum Aufbau einer Theorie der elektromagnetischen Prozesse basierend auf der Vorstellung von der Wechselwirkung zwischen Elektronen und elektromagnetischen Feldern im absoluten Raum-Zeit-Kontinuum. Das Kernstück des hypothetisch-deduktiven Systems, das von Einstein zur Beschreibung der gleichen Prozesse vorgeschlagen wurde, beinhaltete ein Programm, das mit den relativistischen Vorstellungen von Raum und Zeit verbunden war.
Im Wettkampf konkurrierender Forschungsprogramme siegt dasjenige, das am besten die experimentellen Daten integriert und Vorhersagen macht, die aus der Perspektive anderer Programme unerwartet sind.
Die Aufgabe der theoretischen Erkenntnis besteht darin, ein vollständiges Bild des untersuchten Phänomens zu liefern. Jedes Phänomen der Wirklichkeit lässt sich als konkrete Verkettung der vielfältigsten Beziehungen darstellen. Die theoretische Untersuchung hebt diese Beziehungen hervor und spiegelt sie durch bestimmte wissenschaftliche Abstraktionen wider. Doch ein bloßes Set solcher Abstraktionen bietet noch kein vollständiges Verständnis der Natur des Phänomens, seiner Funktionsweise und Entwicklung. Um solch ein Verständnis zu erlangen, muss der Forscher das Objekt in seiner gesamten Fülle und Komplexität der Beziehungen und Interaktionen gedanklich rekonstruieren.
Dieses Vorgehen wird als Methode des Aufstiegs vom Abstrakten zum Konkreten bezeichnet. Indem der Forscher diesen Ansatz anwendet, identifiziert er zu Beginn die Hauptbeziehung (Interaktion) des untersuchten Objekts und verfolgt dann schrittweise, wie diese sich unter verschiedenen Bedingungen verändert, entdeckt neue Beziehungen und stellt deren Wechselwirkungen her, wodurch er die Essenz des Objekts in seiner ganzen Tiefe abbildet.
Die Methode des Aufstiegs vom Abstrakten zum Konkreten wird beim Aufbau unterschiedlicher wissenschaftlicher Theorien angewendet. Ein klassisches Beispiel für die Anwendung dieser Methode ist Karl Marx’ “Das Kapital“. Doch dieser Ansatz kann nicht nur in den Gesellschaftswissenschaften, sondern auch in den Naturwissenschaften verwendet werden. So zum Beispiel in der Gasteorie, in der der Forscher, nachdem er die grundlegenden Gesetze des idealen Gases — das Gesetz von Clapeyron, das Gesetz von Avogadro u. a. — herausgearbeitet hat, zu den konkreten Wechselwirkungen und Eigenschaften realer Gase übergeht, um deren wesentliche Merkmale zu beschreiben. Mit der Vertiefung in das Konkrete kommen immer neue Abstraktionen zum Einsatz, die eine tiefere Abbildung der Essenz des Objekts ermöglichen. So wurde im Verlauf der Entwicklung der Gasteorie festgestellt, dass die Gesetze des idealen Gases das Verhalten realer Gase nur bei niedrigen Drücken beschreiben. Dies resultierte aus der Tatsache, dass die Abstraktion des idealen Gases die Anziehungskräfte der Moleküle vernachlässigte. Die Berücksichtigung dieser Kräfte führte zur Formulierung des Van-der-Waals-Gesetzes.
Alle beschriebenen Erkenntnismethoden arbeiten in realen wissenschaftlichen Untersuchungen stets in Wechselwirkung miteinander. Ihre konkrete systematische Organisation wird durch die Besonderheiten des untersuchten Objekts sowie durch die Spezifik des jeweiligen Forschungsstadiums bestimmt. Im Verlauf der Entwicklung der Wissenschaft entwickelt sich auch das System ihrer Methoden weiter; neue Ansätze und Methoden der Forschung entstehen. Die Aufgabe der Wissenschaftsmethodologie besteht nicht nur darin, die bereits etablierten Methoden und Ansätze der Forschung zu erkennen und zu dokumentieren, sondern auch die Tendenzen ihrer Entwicklung zu verstehen.