WI411 - Wissenschaftstheorie und -praxis in der Wirtschaftsinformatik

Aus FernFH MediaWiki
Zur Navigation springen Zur Suche springen

Wissenschaftstheorie

Ziele der Lektion
Ziel dieser Lektion ist es, sich mit den grundlegenden Begriffen der Wissenschaften auseinanderzusetzen. Einerseits soll erörtert werden, was eine Wissenschaft erst zu einer Wissenschaft macht, andererseits sollen verschiedene erkenntnistheoretische Positionen vorgestellt werden.
Verständnis für die Verortung der eigenen wissenschaftlichen Arbeit im System der Wissenschaft soll geweckt werden.

Wieso Wissenschaftstheorie?

Für jeden Wissenschaftler, jede Wissenschaftlerin ist es wichtig, sich mit dem Konzept der Wissenschaften auseinandersetzen. Es ist weiters wichtig darüber nachzudenken, wie Wissen entsteht, das andere produzieren, aber auch wie Wissen entsteht, das wir selbst produzieren. WissenschaftlerInnen wollen, dass ihre eigenen Arbeiten an den wissenschaftlichen Diskurs anschließen. Um diese Anschlussfähigkeit zu garantieren, müssen bestimmte Grundbedingungen erfüllt sein. Für Ihre KollegInnen wird es mitunter wichtig sein, nachvollziehen zu können, von welcher wissenschaftstheoretischen Grundposition Sie in Ihren Arbeiten ausgehen. Andererseits ermöglicht ein Grundwissen in Erkenntnistheorie Kritikfähigkeit. Sich damit zu beschäftigen, wie und mit welchen Methoden andere ForscherInnen Wissen produzieren, heißt sich damit auseinanderzusetzen, ob die Ergebnisse und Forschungsbedingungen den wissenschaftlichen Gütekriterien entsprechen. Als Wissenschaftler, als Wissenschaftlerin ist es wichtig, sich mit den Spielregeln der eigenen Disziplin auseinanderzusetzen.

Was ist Wissenschaft?

Unter den Begriff der Wissenschaft fallen so unterschiedliche Disziplinen wie Informatik, Rechtswissenschaft, Soziologie, Religionswissenschaften, Mikrobiologie. Was haben alle diese Disziplinen gemeinsam?
Dass sich Wissenschaft mit Wissen beschäftig, lässt sich bereits aus dem Namen ableiten. Wissenschaft schafft Wissen, indem sie dieses produziert, sammelt und ordnet. Wissen wird somit zum Produkt der Wissenschaften. Es dient als Input in andere (soziale) Systeme, wie Technik, Wirtschaft, Politik oder die Medizin.
Aber was ist nun eigentlich Wissen in einem wissenschaftlichen Sinne? Wie lässt sich wissenschaftliches Wissen von Alltagswissen abgrenzen?

Zuerst wollen wir uns grundlegend überlegen, was Wissen bedeutet. Das Wort Wissen stammt vom althochdeutschen Wort „wissan“ ab, was so viel bedeutet wie etwas gesehen haben. Auch heute noch entsteht Wissen, indem Menschen empirisch etwas beobachten, sich darüber eine Meinung bilden, die Wahrheit beanspruchen und diese Wahrheit begründen müssen. Dass Wissen glaubhaft begründet werden muss, unterscheidet Wissen auch von Glauben und Intuition. Wenn diese Begründung hält, dann kann von Wissen gesprochen werden. Dennoch entsteht Wissen nicht nur aus empirischen Beobachtungen, sondern kann auch durch logisches Denken weiterentwickelt werden. Gemein ist dem Wissen, dass es aus wahren Sätzen besteht, die geglaubt werden und für deren Gültigkeit überzeugende Gründe sprechen.
Für wissenschaftliches Wissen bestehen jedoch strengere Richtlinien. Wissenschaft will dieses Wissen systematisch erfassen und ordnen. Die Grundprämisse von Wissenschaft ist die Erzeugung von wahrem Wissen. Die Unterscheidung zwischen wahr/falsch wird damit zur Leitdifferenz. Die Wissenschaften arbeiten mit an die Disziplinen angepassten Theorien und Methoden und mit dem Ziel, wahre – im Sinne von überprüften – Aussagen über die Welt oder über bestimmte Ausschnitte der Welt zu treffen. Wissenschaft gibt eine Struktur des wissenschaftlichen Beobachtens vor und Wissenschaft definiert die Elemente von Forschungsbedingungen.
Wie folgende Grafik zeigt, kann unter dem Begriff der Wissenschaften Unterschiedliches verstanden werden.


Bedeutungen von Wissenschaft (Kornmeier, 2007, S. 5)
Bedeutungen von Wissenschaft (Kornmeier, 2007, S. 5)
  1. Wissenschaft als Tätigkeit

Wissenschaft kann als der Prozess gesehen werden, im Laufe dessen systematisch Erkenntnisse gewonnen werden und unser Wissen vergrößert wird. Genau diese systematische (einem vorgeschriebenen als wissenschaftlich definierten Prozess folgende) Vorgangsweise unterscheidet wissenschaftliche Wissensgewinnung von alltagswissenschaftlicher. Wichtig ist hierbei auch die intersubjektive Überprüfbarkeit: Andere WissenschaftlerInnen überprüfen, wie die eigenen Ergebnisse entstanden sind. Sie können damit den Weg der Erkenntnisgewinnung kritisieren.

  1. Wissenschaft als Institution

Der Ort der Wissenschaft ist institutionalisiert. Das heißt, Wissenschaft kann auch als ein aus Menschen und Objekten bestehendes System (nach der Systemtheorie) verstanden werden mit dem Ziel der Erkenntnisgewinnung mit der Leitdifferenz wahrfalsch. Wissenschaft geschieht in Universitäten, Akademien, Forschungsinstituten, Bücher, Zeitschriften, Kongressen etc.

  1. Wissenschaft als Ergebnis der Tätigkeit

Die Gesamtheit der Ergebnisse (basierend auf wissenschaftlichen Tätigkeiten) über einen Gegenstandsbereich (z.B. Wirtschaftsinformatik), die in einem Begründungszusammenhang, also eingebettet in einen theoretischen Rahmen, stehen. (Kornmeier, 2007, S. 4f.)

Wissenschaftstheorie, -philosophie

Die Wissenschaftstheorie will aufklären, wie Wissenschaft eigentlich funktioniert oder wie wissenschaftliches Wissen erzeugt wird. Sie setzt sich mit den Bedingungen auseinander, unter denen Wissenschaft entsteht und betrieben wird. Sie reflektiert systematisch wissenschaftliche Methoden, die begrifflichen Strukturen wissenschaftlicher Theorien oder die breiteren Konsequenzen wissenschaftlicher Lerninhalte. Sie klärt wissenschaftliche Begriffe und Aussagen, wissenschaftliche Methoden und Theorien (Carrier, 2006). Die Wissenschaftstheorie zählt im Gegensatz zu den Einzelwissenschaften zu den Meta-Wissenschaften. Sie will dazu beitragen, dass die einzelnen WissenschaftlerInnen sich im Klaren sind, welche (Vor-)Annahmen sie über die Welt und die Erkenntnis von Phänomenen haben.

Wissenschaftsgeschichte

Die Wissenschaftsgeschichte beschäftigt sich mit dem Wandel der wissenschaftlichen Lehrinhalte, der wissenschaftlichen Praxis und des wissenschaftlichen Institutionensystems. So beschäftigt sich die Wissenschaftsgeschichte mit den gegenwärtigen Entwicklungen im Wissenschaftssystem. Derzeit berichtet sie beispielsweise von der Entwicklung, dass die Wissenschaft in den vergangen Jahrzehnten verstärkt einem Anwendungsdruck aus Wirtschaft, Politik und Öffentlichkeit ausgesetzt ist. Die Gewinnung von praktischem, technisch verwertbarem Wissen steht vermehrt im Vordergrund.
Naturphänomene sollen kontrolliert werden. Erkenntnis der Erkenntnis willen reicht nicht mehr aus. Es entstehen Industrielabore und Forschungsverbünde zwischen den Universitäten. Erkenntnisse aus den Wissenschaften stehen vermehrt in einem wirtschaftlichen Verwertungszusammenhang (z.B. Patentierungen). Diese Veränderungen werden von der Wissenschaftstheorie und -geschichte thematisiert und kritisch hinterfragt. (Carrier, 2006, S. 10f.)

Wissenschaftliche Arbeit

Die Grundlage der wissenschaftlichen Arbeit bilden die beiden Säulen Theorie und Empirie (durch Experiment bzw. Beobachtung). Das Zusammenspiel dieser beiden Teilbereiche gab es nicht immer. So war Aristoteles (384¬–322 v.Chr.) beispielsweise davon überzeugt, dass Gesetzmäßigkeiten allein durch Denken, also nur durch die Theorie, eruiert werden können. Der logische Schluss (Syllogismus) des Aristoteles ist eine aus drei Urteilen bestehende Schlussfolgerung vom Allgemeinen zum Besonderen (eine besondere Form der Deduktion). Das heißt, nach der Grundhaltung von Aristoteles kann Erkenntnis allein durch den Intellekt erfolgen und es bedarf keiner Verifikation durch Beobachtungen der realen Welt. Erst zur Zeit der Aufklärung im 16. Jahrhundert, zur Zeit von Galileo Galilei (1564–1642) begann sich eine moderne, wissenschaftliche Methode zu entwickeln, bei der es Usus wurde Gesetze durch Beobachtung zu bestätigen (Müller, 2004). Unter anderem grenzte sich Francis Bacon (1561–1626) von der Scholastik des Mittelalters ab, die auf die begrifflich deduktive Logik von Aristoteles aufbaute und nicht durch Beobachtung, sondern allein durch die Vernunft, durch eine rein geistige Wesensschau zur Erkenntnis über Seinsgründe gelangen wollte.
Aufbauend auf Wissenschaftlerkollegen wie Galileo Galilei oder auch seinem Namensvetter Roger Bacon, der früher wirkte aber wieder in Vergessenheit geriet (1214–1292), stand Bacon für das Experiment und Naturbeobachtungen ein und baute seine Methodenlehre auf einem dreiphasigen Modell auf: die Ermittlung der Tatsachenbasis (Empirie), die Angabe induktiver Verallgemeinerung und die deduktive Prüfung von Wissensansprüchen. Bacon gilt daher als der Wegbereiter einer empirischen Wissenschaft, die auf präzisen Versuchen anstatt auf gelehrten Diskursen beruht (Carrier, 2006, S. 16ff.).
Das Experiment ist bis heute eine der wesentlichen Methoden (nicht nur) der Naturwissenschaften, wenn auch mit anderen Begründungen als unter Bacon, da das Experiment die einzige Methode ist, die haltbare Aussagen über Kausalbeziehungen zulässt. Es ist ein gezielter Eingriff in ein System zum Zweck der Erkenntnisgewinnung, behält aber dabei die Kontrolle über die Situationsumstände. Die Parameter können dabei systematisch variiert und einzelne Einflussfaktoren gezielt verändert werden (Carrier, 2006, S. 20f.).

Theorie und Empirie

Was ist eine Theorie?
Theorien sind

  • Erklärungsmodelle für Phänomene
  • Annäherungen an die Wahrheit/Wirklichkeit
  • Nur gültig, solange sie nicht widerlegt werden.
  • Versuche, kausale Zusammenhänge herzustellen (Variable X Variable Y)

Theorien sind systematisch geordnetes Wissen über die Wirklichkeit, das in Sprache ausgedrückt wird. Theorien sollen Komplexität reduzieren und Zusammenhänge (Kausalstrukturen) erklären oder dazu beitragen Wirklichkeit zu verstehen. Theorien leiten unseren Forschungsprozess an. Jede Theorie will beschreiben, verstehen, erklären oder prognostizieren.


Wechselwirkung Empirie / Theorie
Wechselwirkung Empirie / Theorie

Theorien stehen in einem Wechselspiel zur Empirie. Wir haben keinen direkten Zugang zur Wirklichkeit, sondern nur zu Manifestationen der Wirklichkeit (Empirie).

Was ist Empirie?
Das Wort Empirie stammt vom griechischen „Empireia“: Erfahrung, Erfahrungswissen. Empirische Wissenschaften (siehe oben) beschäftigen sich mit der Erklärung beobachtbarer Tatsachen (Naturwissenschaften, Sozialwissenschaften), im Gegensatz dazu stehen nicht-empirische Wissenschaften wie Mathematik, Logik und Philosophie. Unter Empirie werden Erfahrungen (oder auch Informationen bzw. Daten) verstanden, die basierend auf Beobachtungen von Sachverhalten und Objekten für die Bildung von Theorien (Induktion) oder Prüfung von Theorien (Deduktion) herangezogen werden.
Die Manifestationen der Wirklichkeit, z.B. ein Sachverhalt, werden beobachtet und systematisch dokumentiert. Empirie ist immer konkret. Aufgabe der Wissenschaft ist die Verallgemeinerung und damit die Entwicklung von Theorien aus dem konkreten, was in der Wirklichkeit passiert.
Beobachtungen zeichnen sich durch Stabilität, Kohärenz und Intersubjektivität aus. Das heißt, Beobachtungen vermitteln über größere Zeitspannen hinweg un-veränderte Eindrücke der Sachverhalte, die auch durch große willentliche Anstrengungen nur selten grundlegend zu beeinflussen sind. Die genaue Sach-angemessenheit von Beobachtungen ist nicht überprüfbar, wir können nicht die subjektiven Beobachtungen und Sachverhalt miteinander vergleichen, sondern nur Beobachtungen mit Beobachtungen. Dennoch ist bedingt durch die Stabilität, Kohärenz und Intersubjektivität von Beobachtungen davon auszugehen, dass Beobachtungen Aufschlüsse über Sachverhalte zulassen. (Carrier, 2006, S. 58f.)
Oftmals braucht es für die Beobachtung von Sachverhalten eigens entwickelte Beobachtungs- und Messverfahren, also wissenschaftliche Methoden, die mittels klarer Anwendungskriterien die Prüfbarkeit und die Objektivität der Prüfung stärken. Durch die Aufzeichnung von Empirie entstehen Daten. Empirische Daten können durch gezielte Beobachtungen, Experimente oder Befragungen erhoben werden.
Deduktion/Induktion
Erkenntnis baut auf logischen Schlüssen auf. Es wird unterschieden zwischen Induktion und Deduktion.
Induktion (Herbeiführen)
In der induktiven Sichtweise liegt der Schwerpunkt auf der Theoriegewinnung. Vom Besonderen, vom konkret Beobachteten wird auf das Allgemeine geschlossen und Theorien werden gebildet. Als Beispiel eines möglichen Induktionsschlusses gilt Folgendes: Prämissen: „Sokrates ist sterblich.“ und „Sokrates ist ein Mensch.“ Konklusion: „Alle Menschen sind sterblich.“
Beim Arbeiten mit Induktionen gilt es vorsichtig zu sein, denn durch Induktion können Zusammenhänge auch falsch bewertet werden. Bei dem zuvor genannten Beispiel wäre „Alles Sterbliche ist menschlich.“ ein induktiver Schluss mit offensichtlich falschem Ergebnis. Dennoch gehen ForscherInnen, die einem induktiven Ansatz folgen, ihr Forschungsvorhaben offener und theorieloser an als deduktiv arbeitende WissenschaftlerInnen. Die Anwendung von Induktion tritt besonders dann als Komponente des Denkens in den Vordergrund, wenn es darum geht, Hypothesen aufzustellen und zu überprüfen, Bedingungszusammenhänge aufzuspüren, Voraus¬sagen zu machen oder Wahrscheinlichkeiten für das Auftreten bestimmter Ereignisse festzulegen.
Deduktion (Ableiten)
Aus bereits bestehenden Theorien werden Aussagen abgeleitet, die wir in der Wirklichkeit beobachten können, vom Allgemeinen wird auf das Besondere geschlossen. Aus den bestehenden Theorien werden Aussagen gewonnen, die in der Wirklichkeit beobachtet werden können. Durch die Prüfung von bestehenden Theorien bzw. Hypothesen können Theorien falsifiziert werden. Auch in der deduktiven Sichtweise müssen Theorien aus der Empirie heraus entwickelt werden. Jedoch ist das für die AnhängerInnen einer deduktiven Vorgangsweise kein wissenschaftlicher Vorgang. Erst mit der Überprüfung der Theorien bzw. Hypothesen beginnt der eigentliche wissenschaftliche Vorgang.
Zur Anwendung kommt die Deduktion in der deduktiv-nomologischen Erklärungsmethode. Bei diesem Ansatz wird aus mindestens einer nomologischen Aussage (=Gesetzesaussage) und mindestens einer Randbedingung (=Antezendenz-bedingung) auf die zu erklärende Beobachtung geschlossen (Popper, 1935). Gesetzesaussage und Randbedingung werden als Explanans, der zu erklärende Sachverhalt als Explanandum bezeichnet. Die Gesetzmäßigkeit ist eine generelle Aussage. Die Randbedingung/Antezedenzbedingung ist eine singuläre Aussagen. Während die Sachlage der Randbedingung als Ursache bezeichnet wird, versteht man den Sachverhalt des Explanandum auch als Wirkung. Um das Prinzip der deduktiv-nomologischen Erklärungsmethode zu veranschaulichen, verwendet der österreichisch-britische Philosoph und Wissenschaftstheoretiker Karl Popper (1903-1994) folgendes Beispiel: Alle Menschen sind sterblich. Weil Sokrates ein Mensch ist (Ursache), ist er sterblich (Wirkung).


Beispiel für eine deduktiv-nomologische Erklärungsmethode (Popper, 1935)
Gesetzesaussage/ nomologische Aussage Alle Menschen sind sterblich Explanans
Randbedingung Sokrates ist ein Mensch Explanans
Schlussfolgerung Sokrates ist sterblich Explanandum

Heutzutage gibt es in der Forschungspraxis oftmals eine Kombination aus einer deduktiven und einer induktiven Herangehensweise.
Falsifikation
Karl Popper (1935) hat dieses Prinzip der Falsifikation in die Wissenschaftstheorie eingebracht. Theorien müssen konkret genug sein, um empirisch überprüft und gegebenenfalls widerlegt (falsifiziert) werden zu können. Je häufiger eine Theorie einem Falsifikationsversuch widerstanden hat, desto eher kann sie als vorläufig wahr gelten. Popper selbst unter¬stützte deterministische Theorien. Diese sind aber häufig falsch und ein Anwenden von deterministischen Theorien kann zu einem unfruchtbaren Falsifikationismus führen.
Deterministische vs. Probabilistische Theorien
Deterministische Theorien beanspruchen immer Gültigkeit. Eine widersprüchliche empirische Beobachtung genügt, um eine Theorie zu widerlegen. Probabilistische Theorien hingegen geben lediglich eine starke Tendenz an. Diese Theorien sind weniger greifbar und schwieriger zu überprüfen.
Kausalität
Theorien geben in der Regel Ursache-Wirkungs-Zusammenhänge an. Die Ermittlung von Kausalbeziehungen zählt zu den zentralen Herausforderungen der Wissenschaften. Dazu müssen die Ursachen- und Wirkungserscheinungen identifiziert werden. Das heißt Untersuchungsgegenstand ist, welche Variable/welches Merkmal der Ursache (unabhängige Variable) und welche Variable der Wirkung zugeordnet werden kann (abhängige Variable). Die Ursache muss immer vor der Wirkung eingetroffen sein.


Mögliche Kausalzusammenhänge, orientiert an (Kornmeier, 2007, S. 64)

Entdeckt man in einer empirischen Studie einen Zusammenhang zwischen zwei Variablen, ist es oftmals nicht möglich, die Richtung des Zusammenhangs zu bestimmen. Es stellt sich die Frage, welche Variable für die Wirkung verantwortlich ist und bei welcher Variable sich die Ursache widerspiegelt oder ob gar eine Wechselwirkung zwischen den Variablen vorherrscht. Besonders zu beachten sind auch mögliche Scheinkorrelationen. Das heißt, dass eine dritte (möglicherweise unbekannte) Variable auf die beiden korrelierenden Variablen Einfluss nimmt (mehr zu Korrelation siehe unten).

Die Wirtschaftsinformatik in der Landkarte der Wissenschaften

Um sich in seiner eigenen Disziplin bzw. Wissenschaftskultur zu platzieren, ist es notwendig, sich in der Landkarte der Wissenschaften zu orientieren. Gerade in Zeiten der zunehmenden Zergliederung und Spezialisierung der Wissenschaften, ist es wichtig, den Blick auf das Ganze zu bewahren. Wir wollen uns nun mit der Frage befassen, wie die Wirtschaftsinformatik in das System der Wissenschaften einzuordnen ist.
Die Beschreibung und Einordnung der verschiedenen Wissenschaften ist, wie uns die Wissenschaftsgeschichte zeigt, einem geschichtlichen Wandel unterworfen. Das weist darauf hin, dass die Einteilung der Wissenschaften nicht objektiv ist, sondern von den WissenschaftlerInnen selbst getroffen wird. Wir selbst sind es, die die Merkmale bestimmen, um die Trennlinie zwischen den Disziplinen zu schaffen (Foucault, 2009).
Unterscheidung nach Art der Erkenntnis
Unterschieden wird zuallererst zwischen Erfahrungswissenschaften (empirischen Wissenschaften) und nicht-empirischen Wissenschaften (siehe Empirie). Während die empirischen Wissenschaften durch gezielte Beobachtungen im Labor oder im Feld ihre Theorien weiterentwickeln, verifizieren oder falsifizieren die nicht-empirischen Wissenschaften ihre Erkenntnisse ohne solche Beobachtungen anhand von logischen Überlegungen (z.B. Beweisen).
Beispiele für empirische und nicht-empirische Wissenschaften:

  • Empirische Wissenschaften: Biologie, Physik, Soziologie etc.
  • Nicht-empirische Wissenschaften: Mathematik, Philosophie, Rechtswissenschaften etc.

Unterscheidung nach Anwendung und Erkenntnis
Im deutschsprachigen Raum ist es durchaus üblich, zwischen anwendungsorientierter und Grundlagenforschung zu unterscheiden. Die Zuordnung zu einer der beiden Kategorien ist oftmals schwierig. Eine Definitionsmöglichkeit ist beispielsweise die Finanzierung des Forschungsvorhabens. Ist der Forscher, die Forscherin an einer Universität angestellt und kann er frei über sein Forschungsvorhaben entscheiden, kann er sich den Grundlagen seiner Wissenschaftsdisziplin widmen. Ist er jedoch von Auftraggebern abhängig und handelt im Auftrag von externen Geldgebern, wird seine Forschungsarbeit oftmals an der Anwendbarkeit seiner Ergebnisse orientiert sein. Donald Stroke (1997) argumentiert, dass es neben dieser Zweiteilung der Wissenschaft auch noch eine anwendungsorientierte Grundlagenforschung gibt.

Pasteur’s Quadrant (Stokes, 1997, S. 73)

Unterscheidung nach Wissensgebieten
Das wissenschaftliche System entwickelte sich im Laufe der Zeit zunehmend komplexer, so dass es notwendig wurde auf die zunehmende Spezialisierung mit einer Aufteilung der Wissenschaft in viele einzelne Disziplinen zu reagieren. Als grundlegende Unterscheidung gilt die Trennung von Universal- und Einzelwissenschaften. Als Universalwissenschaften gelten die Philosophie und die Theologie. Während letzterer oftmals die Wissenschaftlichkeit abgesprochen wird, zeichnet sich die Philosophie dadurch aus, dass sie sich nicht auf ein einzelnes Wissensgebiet beschränkt, sondern die Gesamtheit der Wirklichkeit betrachtet.
Die Einzelwissenschaften hingegen werden oftmals in drei grobe Bereiche eingeteilt: in die Natur-, Strukturwissenschaften, sowie Kulturwissenschaften (Anzenbacher, 1981). Innerhalb dieser verschiedenen Gruppen gibt es diverse Disziplinen. Durch Differenzierung entstehen neue Zweige von Wissenschaften. Naturwissenschaften untersuchen eine Wirklichkeit, deren Existenz an sich sie nicht beweisen, sondern voraussetzen, nämlich Naturerscheinungen und Naturgesetze. Das Kenntnisobjekt der Naturwissenschaften ist die Materie, also die Erforschung der belebten wie der unbelebten Natur. Naturwissenschaft versammelt jene Disziplinen, die sich mit Naturobjekten auseinandersetzen. Sie beschreiben die Eigenschaften dieser Objekte und erklären sie aus den gesetzmäßigen Verknüpfungen und Beziehungen der Dinge im Raum. Von der äußeren Wahrnehmung ausgehend und mit Hilfe der Grundbegriffe des logischen Denkens bestimmen die Naturwissenschaften den Inhalt der äußerlichen Erfahrung in begrifflicher, nach Möglichkeit mathematisch-quantitativer Weise. Zu den klassischen Methoden der Naturwissenschaften zählen das Experiment und die Modellbildung. Dabei greifen sie auf mathematische Methoden zurück. Unter die klassischen Naturwissenschaften fallen Biologie, Chemie, Physik und Geologie. (Eisler, 1904, S. 721f.)
Die Ingenieurwissenschaften versuchen Erkenntnisse aus den Naturwissenschaften praktisch anzuwenden und für die Lösung und Realisierung von technischen Problemen, Verfahren oder Produkten zu gebrauchen. Zu den Struktur- oder Formalwissenschaften zählen die Mathematik, Logik, theoretische Informatik, Systemtheorie. Der Gegenstandsbereich der Strukturwissenschaften ist die gesamte Wirklichkeit. Sie suchen nach Gesetzmäßigkeiten, denen abstrakte Strukturen unterliegen und zwar unabhängig davon, ob sich diese Strukturen in unbelebten oder belebten, natürlichen oder künstlichen Systemen wiederfinden.
Die Strukturwissenschaften, allen voran die Mathematik, bilden die Basiswissenschaften für das Verständnis schlechthin. Mittels strukturwissenschaftlicher Methoden wird von den qualitativen Eigenschaften eines Gegenstandes abstrahiert und die Wirklichkeit durch mathematische Begriffe, Symbole und deren Transformationen ersetzt. (Küppers, 2000)
Zu den Kulturwissenschaften zählen die Geisteswissenschaften und die Sozialwissenschaften. Zwischen diesen beiden Gebieten gibt es viele Überschneidungen. Die Sozialwissenschaften stehen aus ihrer geschichtlichen Entwicklung heraus den Naturwissenschaften näher. Sie wollen Phänomene gesellschaftlichen Zusammenlebens ursächlich erklären. Sie verwenden hierzu traditionell positivistische Ansätze, die Kausalzusammenhänge bestätigen wollen. Die Geisteswissenschaften wollen diese Phänomene hingegen verstehen, nachvollziehen und die Motivation der handelnden Individuen erfassen.
Zu den Geisteswissenschaften zählen u.a. die Philosophie, Kommunikationswissenschaft, Sprachwissenschaften, Geschichtswissenschaften, Kunstwissenschaften sowie die Rechtswissenschaften (Wissenschaftsrat, 2006, S. 17). Zu den Sozialwissenschaften zählen Disziplinen wie die Soziologie, Wirtschaftswissenschaften und die Politikwissenschaften. Disziplinen wie die Kommunikationswissenschaften oder die Rechtswissenschaften werden je nach Art ihres Empiriebezugs und der Ausrichtung entweder den Sozial- oder den Geisteswissenschaften zugeordnet. Da die Abgrenzung von Geistes- und Sozialwissenschaften immer schwieriger wurde, wurde mit Humanwissenschaften ein neuer Begriff geschaffen. Zu den Humanwissenschaften zählen alle Disziplinen, die sich mit dem Menschen und seiner Kultur beschäftigen.


image

Eine Aufstellung dieser Art, in der Geschichte auch oft Baum des Wissens genannt, ermöglicht einen Überblick. Sie wurde aber in den letzten Jahrzehnten oftmals hinterfragt. Es gibt zu viele Schnittstellen. Viele Wissenschaften lassen sich nicht klar einem Bereich zuordnen.
Interdisziplinarität
Die große Spannbreite an unterschiedlichen wissenschaftlichen Disziplinen ruft auch die Interdisziplinarität ins Leben. Interdisziplinarität ist die Zusammenarbeit von WissenschaftlerInnen aus unterschiedlichen Disziplinen, um gemeinsam an der Entwicklung und Umsetzung von Forschungsprojekten zu arbeiten. Dies betrifft auch die Wirtschaftsinformatik.
Transdisziplinarität
Neue Wege des Denkens gehen über die disziplinären Grenzen hinaus. Zeitgenössische Forschung findet zusehends in einem anwendungsorientierten Kontext statt. Die Problemformulierung wird dialogisch in einem Kommunikationsprozess mit verschiedenen Stakeholder ausgehandelt.
„Disziplinen sind nicht mehr die entscheidenden Orientierungsrahmen für die Forschung noch für die Definition von Gegenstandsbereichen. Statt dessen ist die Forschung durch Transdisziplinarität charakterisiert: Die Problemlösungen entstehen im Kontext der Anwendung, transdisziplinäres Wissen hat seine eigenen theoretischen Strukturen und Forschungsmethoden, die Resultate werden nicht mehr über die institutionellen Kanäle, sondern an die am Forschungsprozess Beteiligten kommuniziert (Gibbons et al., 1194, 5; Funtowicz/Ravetz, 1993, 109).“ (Weingart 1997)
Wirtschaftsinformatik
Die Wirtschaftsinformatik ist eine junge Wissenschaft, die ihre Systemgrenzen und -inhalte noch genau definieren muss. Sie ist eine interdisziplinäre Wissenschaft, die neben ihren eigenen Inhalten sehr stark auf Wissenschaften wie Informatik, Mathematik, Betriebswirtschaft und Kommunikationswissenschaft Bezug nimmt. Die Informatik oder Computerwissenschaft selbst ist im Vergleich zu den traditionellen Wissenschaftsdisziplinen wie Physik, Medizin oder Rechtswissenschaft eine relativ junge Wissenschaftsdisziplin. Erste Ausbildungsprogramme gab es erst seit den 1950er und 1960er Jahren. Gerade diese jungen Disziplinen haben oftmals ein starkes Bedürfnis nach Selbstreflexion und -positionierung. Schließlich hat die Informatik eine große gesellschaftliche Relevanz, schaut man sich die hohe Dichte an Nutzung von Informations- und Kommunikationstechnologien in professionellen wie privaten Lebensbereichen an. (Bruckner, 2007, S. 3)

Wesentliche erkenntnistheoretische Positionen

Bevor die wesentlichen erkenntnistheoretischen Positionen unserer Zeit diskutiert werden sollen, müssen vorab noch einige wichtige Begrifflichkeiten geklärt werden, wie die Unterscheidung zwischen Ontologie, Epistemologie und Methodologie.
Ontologie – Welt an „sich“: Wissenschaft vom Sein, vom Seienden als solchem, von den allgemeinsten, fundamentalen, konstitutiven Seinsbestimmungen (=allgemeine Metaphysik) (Eisler, 1904). Grundsätzliche Fragen der Ontologie als Disziplin der theoretischen Philosophie sind: „Gibt es eine reale Welt, die unabhängig von unserem Wissen über sie besteht?“, „Was existiert?“, „Was kann erforscht werden?“.
Epistemologie – Erfahrbarkeit der Welt: Die Epistemologie (Erkenntnistheorie) beschäftigt sich damit, wie Wissen zustande kommt. Die Grundfrage der Epistemologie ist, ob ein Beobachter, eine Beobachterin die Wirklichkeit erkennen kann oder nicht. Methodologie: Unter Methodologie wird die Lehre von den Methoden verstanden (Methoden siehe unten). Sie stellt sich die Fragen nach den Mitteln und Methoden, mit denen systematisch Wissen gewonnen werden kann.


Ontologie, Epistemologie, Methodologie (Marsh & Furlong, 2002)

Erkenntnisfortschritt zählt zu den wesentlichen Aufgaben der Wissenschaften. Die Frage, die sich nun stellt, bezieht sich auf das „wie“ der Forschung, um an neue Erkenntnisse zu kommen. In den meisten wissenschaftlichen Disziplinen gibt es verschiedene Auffassungen von Erkenntnistheorie (=Epistemologie) bzw. Wissenschaftstheorie. Die erkenntnistheoretischen Positionen bestimmen auch, welche Rollen die jeweilige wissenschaftliche Disziplin erhält (Kornmeier, 2007). Von den meisten Menschen unbestritten ist, dass es Gegenstände gibt, die außerhalb des menschlichen Bewusstseins existieren. Die Menschen können auf die Existenz dieser Gegenstände nur bedingt einwirken sowie die Struktur dieser Welt nicht ändern (z.B. nicht durch eine Mauer gehen oder fliegen). Worüber es keine Einigkeit gibt, ist die Existenz von Allgemeinbegriffen, Eigenschaften, und Klassen. Gibt es eine über den einzelnen Dingen stehende Existenz (Essentialismus) oder nicht (Nominalismus).


Ontologie und Epistemologie

Auf einer ontologischen Ebene, auf der Seinsebene, existieren Dinge unabhängig vom Menschen, aber die ontologische Ebene ist von der erkenntnistheoretischen zu unterscheiden, die die Vorstellung darüber wie Menschen die Realität wahrnehmen, betrifft.
(Naiver) Realismus VertreterInnen des Realismus gehen davon aus, dass die Realität unabhängig von der menschlichen Wahrnehmung existiert, also dass es eine denkunabhängige Wirklichkeit gibt. Die Realität ist der Maßstab dafür, ob Aussagen als wahr und falsch definiert werden. Die meisten WissenschaftlerInnen sind sich jedoch einig, dass die erkenntnistheoretische Position der Realisten nicht haltbar ist. Menschen nehmen selektiv wahr, das heißt nur einen Teil der Informationen, welche die Umwelt bereitstellt. Zusätzlich sind die Deutungsweisen für die Wahrnehmungen der Wirklichkeit nicht immer eindeutig, sondern anfällig für Täuschungen jeglicher Art.
(Radikaler) Konstruktivismus Die KonstruktivistInnen stehen in ihrer Position konträr den VertreterInnen des Realismus gegenüber. KonstruktivistInnen erkennen keine subjektunabhängige Realität an. Das heißt, die Wirklichkeit wird immer von den einzelnen Individuen selbst konstruiert. Dass die Realität bestimmte Eigenschaften und Charakteristika hat, wird nicht bestritten, aber sie ist nur über Beobachtungen von einzelnen Menschen zugänglich, die diese Beobachtungen zugleich interpretieren und auslegen. Menschen schreiben den Dingen damit ihre eigenen Bedeutungen zu, die im Rahmen eines sozialen Austauschs mit anderen geteilt werden. Auch die Wissenschaft ist daran gebunden. Das heißt, sie entwickeln keine objektiven Erkenntnisse, sondern entwickeln subjektive Konstrukte. Kritisiert wird am radikalen Konstruktivismus, dass, vorausgesetzt man bleibt konsequent, keine wissenschaftlichen Erkenntnisse gewonnen werden können, weil die Wirklichkeit nicht direkt wahrnehmbar ist.
(Klassischer) Rationalismus Vertreter des Rationalismus sehen ihre Erkenntnis auf Verstand und Vernunft gegründet. Einer Beobachtung muss immer eine Theorie vorausgehen, da es keine voraussetzungs- oder theoriefreien Erfahrungen gebe. Der Erkenntnisprozess des Rationalismus beruht auf der Deduktion (siehe oben). Das heißt die rationale Erkenntnis beruht immer auf einer vorhandenen Erkenntnis von der weitere Aussagen und Annahmen abgeleitet werden. Die deduktive-nomologische Erklärungsmethode ist von besonderer Bedeutung.
Empirismus Für die VertreterInnen des Empirismus ist die wichtigste Quelle der Erkenntnis die sinnliche Wahrnehmung. Eine wissenschaftliche Theorie entsteht durch Beobachtung, Befragung oder durch im Experiment gemachte Erfahrungen. Mit dem Aufkommen des Empirismus am Übergang vom Mittelalter in die Neuzeit kam es zu einem Aufschwung der Naturwissenschaften. Nicht mehr Deduktion, sondern Induktion wurde zum maßgeblichen Prinzip der Erkenntnisse. Von einer endlichen Zahl an Beobachtungen (Stichprobe, beschränkte Fallzahlen) wird auf das zugrundeliegende Gesetz geschlossen. Der Empirismus entwickelte sich mit den philosophischen Strömungen des Positivismus und Neopositivismus weiter. Diese akzeptieren im Gegensatz zum reinen Empirismus auch die Existenz des menschlichen Bewusstseins. Die PositivistInnen suchen nicht nach dem eigentlichen „Wesen“ einer Tatsache. Tatsachen werden als solche hingenommen. Jegliche Art von Metaphysik wird abgelehnt. Die NeoposivistInnen, die eng mit der Gruppe des „Wiener Kreises“ (Schlick, Carnap, Neurath) verbunden waren, stellten keine Überlegungen über Empfindungen und Bewusstsein an. Anstatt psychologischer Fragestellungen werden Aussagen über die reale Welt logisch untersucht (Logischer Empirismus, logischer Positivismus). Nur solche Aussagen werden als wissenschaftliche Aussagen zugelassen, die in sinnlich wahrnehmbare (naturwissenschaftlich beobachtbare) Gegebenheiten übersetzt werden können. Diese Aussagen werden Protokollsätze, Elementarsätze oder auch Beobachtungsaussagen genannt. (Behrens, 1993), (Kornmeier, 2007)
In derzeitigen Wissenschaften dominierende Ansätze
Obwohl sich Rationalismus und Empirismus nach Art der Erkenntnisquelle unterscheiden (Vernunft/Deduktion <-> Beobachtung/Induktion) gibt es dennoch einige Gemeinsamkeiten. Beiden gemein ist die Suche nach den letzten und sicheren Fundamenten des Wissens. Allgemein haben sich die beiden Strömungen aneinander angenähert. Es gibt weder Strömungen, die der „reinen Deduktion“ noch die der „reinen Induktion“ anhängen.


  • Kritischer Rationalismus wurde entscheidend von Karl Popper geprägt und stellt eine Kombination und Weiterentwicklung von klassischem Rationalismus und Neopositivismus dar und beinhaltet Elemente der Deduktion und Induktion. Basierend auf der Annahme, dass menschliche Vernunft grundsätzlich fehlbar ist und damit auch die Ergebnisse rationalistischer Begründungen nicht unumstößlich sind, ist Wissen immer nur vorläufig gültig. Die Induktion alleine ist zur Erkenntnisgewinnung ungeeignet. Aus Beobachtungen und Experimenten können keine generalisierten Aussagen abgeleitet werden. Nur weil bislang nur weiße Schwäne beobachtet wurden, heißt das noch lange nicht dass alle Schwäne auf der Welt weiß sind. Eine Aussage kann niemals verifiziert werden (d.h. endgültig bestätigt werden), dennoch ist es möglich aus den eigenen Fehlern (falschen Annahmen) zu lernen. Die Aufgabe der Wissenschaft ist es nach der Wahrheit zu streben und falls sich eine Aussage als fehlerhaft erweist (=Falsifikation) diese zu korrigieren (=methodischer Rationalismus). Das heißt Aussagen müssen falsifizierbar sein, also grundsätzlich muss es möglich sein diese Sachverhalte empirisch zu überprüfen und auch zu widerlegen, und in einer logischen Prüfung widerspruchsfrei sein. Solange eine Theorie nicht widerlegbar ist, gilt die darauf aufbauende Idee als vorläufig bestätigt. Kritisch wird der Rationalismus deswegen genannt, da Aussagen durch die Falsifikation immer wieder hinterfragt werden. Rationalismus steht dafür, dass im Gegensatz zum Empirismus und Positivismus das theoretische Denken in den Vordergrund tritt. Der Kritische Rationalismus stellt methodologische Fragen in den Mittelpunkt (z.B. Wie können Theorien formuliert, geprüft bzw. geändert werden?). Es geht vor allem um die (modell-)theoretische Herleitung von Hypothesen und deren Überprüfung an der Realität.
  • Unter Konstruktivismus werden unterschiedliche Strömungen zusammengefasst. Zu einem der Erlanger Konstruktivismus (Methodischer Konstruktivismus), der von dem Mathematiker Paul Lorenz begründet wurde. Die VertreterInnen dieser Richtung des Konstruktivismus betrachten Wissenschaft und Wissenschaftstheorie kritisch. Es geht ihnen um die Entwicklung einer intersubjektiv nachvollziehbaren Wissenschaftssprache, um sprachliche Missverständnisse zu vermeiden. Der Sozialkonstruktivismus, der sich auf die Soziologen Peter L. Berger und Thomas Luckmann (1980) und deren Hauptwerk „Die gesellschaftliche Konstruktion der Wirklichkeit“ beruft geht davon ausgeht, dass die wissenschaftliche Erkenntnis nicht unabhängig von den sozialen Situationen der ForscherInnen gesehen werden kann. Naturwissenschaftliche (vermeintlich objektive) Tatsachen sind vom sozialen Umfeld des Forschers geprägt. Die KonstruktivistInnen richtet ihr Hauptaugenmerk auf meta-theoretische Fragen, sowie deren Verbindungen zur Empirie. (Kornmeier, 2007, S. 29ff)
Wesentliche erkenntnistheoretische Positionen
Objektive Welterkennung möglich Objektive Welterkennung nicht (vollständig) möglich
Objektive Welterkennung nicht (vollständig) möglich Welt existiert unabhängig vom Beobachter (Essentialismus) Positivismus Kritischer Rationalismus
Diskursive/soziale Konstruktion der Wirklichkeit (Konstruktivismus) Interpretative Sozialforschung

Kritische Betrachtung des Wissenschaftssystems

„Wissenschaft ist nicht das was wahr ist, sondern das was bewährt ist.“ Thomas Kuhn


Sehr lange glaubte man, dass sich wissenschaftlichen Wissen durch stetige Akkumulation von Wahrheiten ausdehnt. Dies widerlegte der Wissenschaftstheoretiker Thomas Kuhn. Kuhn begreift Wissenschaft nicht als kumulativen Fortschrittsprozess, sondern Wissenschaft ist von Diskontinuitäten und Brüchen gekennzeichnet. Er behauptete, dass Wissenschaft neue Erkenntnisse entwickeln kann, die jedoch auf falschen Annahmen basieren. Er stellte fest, dass es in jeder Wissenschaft eine herrschende Lehrmeinung gibt, die auch die zu verwendenden Leitbegriffe und Theorien bestimmt. Kuhn bezeichnet diese herrschende Lehrmeinung als Paradigma (griech. für Modell/Beispiel, in diesem Zusammenhang ein mehr oder weniger bewusstes Vorverständnis von einem wissenschaftlichen Gegenstand, bzw. von der zur Anwendung kommenden Forschungsmethode). Die meisten WissenschaftlerInnen bestätigen mit ihren Forschungen dieses Paradigma ohne die ihm zugrundeliegenden Grundannahmen zu hinterfragen. Immer wieder jedoch gibt es nonkonformistische WissenschaftlerInnen, die eine Gegenposition entwickeln und eine wissenschaftliche Revolution einläuten, sodass es zu einem Paradigmenwechsel kommt. Ein neues Paradigma entwickelt sich nicht jedoch nicht geradlinig aus dem bisherigen Paradigma. Einander ablösende Paradigmen sind miteinander unvergleichbar. Das heißt aber auch es findet kein kontinuierlicher Erkenntnisfortschritt statt. Thomas Kuhn sprengte selbst das alte Paradigma der Gradlinigkeit der wissenschaftlichen Entwicklung. Wissenschaft ist ein System in dem Konkurrenz zwischen verschiedenen WissenschaftlerInnen gibt, die im Kampf um das sich durchsetzende Paradigma stehen. (Kuhn, 2001)

Formen des wissenschaftlichen Arbeitens

Das Ziel der unterschiedlichen Wissenschaften ist, Erkenntnis und Wissen systematisch zu gewinnen und zu ordnen. Wissenschafter*innen können grundsätzlich auf zwei Wegen neues Wissen erschließen, indem sie sich aus¬schließlich auf vorhandene Theorien beziehen, die bereits publiziert oder auf eine andere Art und Weise dokumentiert sind, oder indem sie versuchen, für wissenschaftliche Probleme und Fragestellungen innovative Lösungen und Antworten zu finden. Die literaturbasierte wissenschaftliche Arbeit steht damit einer wissenschaftlichen Arbeit gegenüber, die neue Erkenntnisse, aber auch den Prozess der Forschung oder Entwicklung dieser Erkenntnisse dokumentiert. In den folgenden zwei Abschnitten sollen die Literaturstudie sowie die empirische Forschungsarbeit genauer beschrieben werden.

Formen des wissenschaftlichen Arbeitens

Prinzipien für die wissenschaftliche Arbeit

Der bekannte Philosoph und Schriftsteller Umberto Eco beantwortet die Frage nach Prinzipien für das wissenschaftliche Arbeiten folgendermaßen. Ec03, 39ff.

  1. Die Untersuchung behandelt einen erkennbaren Gegenstand, der so genau umrissen ist, dass er auch für Dritte erkennbar ist.
  2. Die Untersuchung muss über diesen Gegenstand Dinge sagen, die noch nicht gesagt worden sind.
  3. Die Untersuchung muss für andere von Nutzen sein.
  4. Die Untersuchung muss jene Aufgaben enthalten, die es ermöglichen nachzuprüfen, ob ihre Hypothesen falsch oder richtig sind.

Wichtig ist hierbei auch, darauf zu achten, dass das Problem versachlicht wird. Das heißt, dass für die Beschreibung des Problems eine sachliche Fachsprache verwendet wird und das Problem theoretisch eingebettet ist, sei es nun durch Verwendung einer mathematischen Sprache oder durch eine Verknüpfung mit anderen in der Disziplin vorhandenen Theorien. Die Gütekriterien für wissenschaftliche Arbeiten müssen eingehalten werden.
Folgende Aufzählung von Aufgaben für Wissenschafter*innen ist praxis- und handlungsorientierter und bezieht die Arbeit in der und für die „Scientific Community“ mit ein:


  • Hinterfragen und Überprüfen der eigenen Forschungs- und Auswertungsmethoden auf Zweckmäßigkeit, Wahrheitsgehalt und ethische Qualität;
  • Aussagen, Hypothesen und Schlussfolgerungen müssen überprüfbar und widerlegbar sein;
  • Beachtung der für das Wissensgebiet als „wissenschaftlich“ anerkannten Theorien, Methoden und der Fachsprache (Nomenklatur);
  • Erbringen von Beiträgen zur Grundsubstanz des Wissens (z.B. durch Lehrbücher);
  • Mitwirkung an fachtypischen Wissensvermittlungsmethoden (Lehre);
  • Weiterentwicklung der akademischen Abschlüsse und Qualifikationen des Wissensbereichs;
  • Teilnahme am Wissensaustausch zwischen Wissenschafter*innen des Fachbereichs und darüber hinaus („Scientific Community“, Publizieren, Konferenzen etc.). Ne03

Der Soziologe Max Weber stellte für die Wissenschaften das Postulat der Werturteilsfreiheit auf. Wissenschafter*innen haben frei von Werten zu sein. Sie sollen nichts als böse oder gut klassifizieren. Da aber jeder Mensch selbst Werte hat, müssen diese vorab klargelegt werden. Wichtig ist, dass die Erkenntnisse intersubjektiv überprüfbar sind, das heißt, dass andere die Erkenntnisschritte nachvollziehen können. Die Analyse muss immer wieder hinterfragt werden. Nun ist ein Wissenschaftler, eine Wissenschaftlerin nicht amoralisch, sondern positioniert sich, wie Max Weber unterscheidet, in einer Verantwortungsethik und nicht in einer Gesinnungsethik. Die Politik beispielsweise verpflichtet sich einer Gesinnungsethik und ist damit weltanschaulich gebunden.
Die Wissenschafter*innen sind der Rationalität verpflichtet.
Die Forschungsfrage
Aus den genannten Prinzipien leitet sich auch die Forschungsfrage ab. Sie ist der Ausgangspunkt jeglicher Art von Forschung. Es gibt keine wissenschaftlichen Methoden zur Auswahl einer Forschungsfrage. Sie kann entweder dem Interesse des/der einzelnen Wissenschafter*in entspringen oder als Auftrag an die Wissenschafter*innen ergehen.
Bevor sich Wissenschafter*innen einzelnen Forschungsfragen zuwenden, sollten sie jedoch einige Punkte berücksichtigen:


  • gesellschaftliche Relevanz,
  • wissenschaftliche Relevanz und
  • kritische Überprüfung der Forschungsfrage auf ihre Herkunft.

Das wissenschaftliche Literaturstudium

Eine Literaturstudie befasst sich mit bereits publizierter wissenschaftlicher Literatur über ein bestimmtes Thema bzw. eine bestimmte Fragestellung. Im Rahmen des Studiums und auch bei Abschlussarbeiten[1] ist dies eine oft gewählte Form des wissenschaftlichen Arbeitens. Oft fällt es schwer, Methoden des Literaturstudiums zu finden, meistens sind Erklärungen auf die Beschaffung von Literatur beschränkt. Wie jedoch mit der vorhandenen Literatur umgegangen wird, wird methodisch von vielen Wissenschafter*innen nicht dokumentiert, sondern basiert auf informell (z.B. im Laufe des Studiums) erworbenem Erfahrungswissen.
Ein wichtiger Punkt bei der Bearbeitung von wissenschaftlichen Texten ist, zu welchem Zeitpunkt im Prozess des wissenschaftlichen Arbeitens diese stattfindet. Sinnvoll ist eine intensive Auseinandersetzung mit Literatur erst dann, wenn bereits eine Forschungsfrage formuliert wurde, also klar ist, welches Problem im Vordergrund steht und im Laufe der Arbeit beantwortet werden soll. Diese Forschungsfrage bildet sowohl den roten Faden für die Literaturrecherche als auch für die Bearbeitung der Literatur. Nur jene Literatur, die zur Beantwortung der Fragestellung beitragen kann, ist relevant. Das Literaturstudium kann also als die Bearbeitung relevanter wissenschaftlicher Literatur in Bezug auf die eigene Fragestellung bezeichnet werden.
Diese relevante Literatur wird im Forschungsstand bzw. State of the Art dargestellt. Mit dem Erfassen des Forschungsstandes wird ein Überblick über die Diskursträger*innen des gewählten Themas geschaffen, also über die Aussagen jener Autor*innen, die zum wissenschaftlichen Diskurs mit wesentlichen Erkenntnissen beigetragen haben. Sie können hierbei beschreibend vorgehen, verschiedene Beiträge zusammentragen und komprimieren oder diese vergleichen und kontrastieren und damit zur Verdichtung bisheriger Erkenntnisse beitragen und neue Erkenntnisse gewinnen.
Aufbauend auf diesem Fundament werden in einer Literaturstudie nun die eigenen Erkenntnisse, die neu erkannten Zusammenhänge, Interpretationen und mögliche Kritik formuliert. Eine Literaturstudie besteht somit darin, die eigene Fragestellung mit Hilfe von bereits publizierten wissenschaftlichen Texten zu bearbeiten und im Laufe der Arbeit zu beantworten.

Wissenschaftlich Forschen

Methode: logisches, planmäßiges, systematisches Verfahren wissenschaftlicher Forschung, Untersuchungsweise, Art der Wahrheitsfindung. Ei04, 665-668
Das Wort Methode stammt aus dem Altgriechischen (methodos) und bedeutet so viel wie „Nachgehen“, „Verfolgen“ oder „der Weg zu etwas hin“. Eine Methode bietet uns die Möglichkeit, bei der Entwicklung wissenschaftlicher Probleme, Fragen, Aussagen sowie deren empirischer Überprüfung durch Realitätsanalysen einen bereits von anderen Forscher*innen entwickelten und erprobten Weg „nachzugehen“. Das heißt, eine Methode gibt ein systematisches Vorgehen bzw. Verfahren vor, um Informationen zu beschaffen und auszuwerten. Methoden helfen damit, zwischen Empirie und Theorie zu vermitteln. Methoden müssen wissenschaftlichen Kriterien entsprechen, um überzeugend zu sein. Sie helfen aber auch dabei, die Intersubjektivität des Forschungsprozesses sicherzustellen. Indem sich ein Forscher, eine Forscherin auf eine bestimmte Methode bezieht und zum Beispiel in der Einleitung seines/ihres Artikels angibt, welche Methode er/sie für das Forschungsvorhaben verwendet hat, können die Leser*innen des Artikels Rückschlüsse auf den Forschungsprozess des Autors, der Autorin ziehen. Zu unterscheiden sind besonders naturwissenschaftliche, sozialwissenschaftliche, formalwissenschaftliche und philosophische Methoden.


Überblick über die Methoden der Wirtschaftsinformatik

Die Wirtschaftsinformatik versteht sich als Wissenschaft mit einer methoden-pluralistischen Erkenntnisstrategie. Sie bedient sich der Instrumente der
Erfahrungs-, Formal- und Ingenieurwissenschaften.
Die Wirtschaftsinformatik arbeitet innerhalb zweier erkenntnistheoretischer Paradigmen. Einerseits will sie mit sozialwissenschaftlichen Methoden die Ausgestaltung und Wirkung verfügbarer IT-Lösungen, Unternehmen und Märkte analysieren. Neben rein an der Erkenntnis orientierten, sozialwissenschaftlichen Forschungsmethoden spielen in der Wirtschaftsinformatik vor allem auch konstruktionsorientierte Methoden (Erstellen und Evaluieren von Prototypen) und Methoden der Informationssystemgestaltung (Entwicklungsmethoden) eine wesentliche Rolle. Im Rahmen von „Design Science“ bzw. dem konstruktionswissenschaftlichen Paradigma will die Wirtschaftinformatik nützliche IT-Lösungen entwickeln, die durch das Schaffen und Evaluieren verschiedener Artefakte in Form von Modellen, Methoden oder Systemen untersucht werden sollen.
Grundsätzlich können wissenschaftliche Methoden in zwei Gruppen eingeteilt werden: in quantitative und qualitative Methoden. Die Unterscheidungsmerkmale sollen nachfolgend anhand der Methoden der Sozialforschung in ihren Grundzügen beschrieben werden. Diese können vor allem aufgrund ihres Formalisierungsgrades unterschieden werden. Wilde & Hess WH07, 282 hingegen ergänzen diese zwei Kategorien um „semi-formale Gegenstandsrepräsentationen“, zu denen sie beispielsweise Petrinetze oder UML-Modelle zählen.
Einen ersten Einblick in die Vielfalt der Methoden der Wirtschaftsinformatik gibt folgende Tabelle, die auf Basis einer Inhaltsanalyse verschiedener facheinschlägiger Artikel in der Fachzeitschrift „Wirtschaftsinformatik“ erstellt wurde. WH07
In dieser Auflistung sind sowohl formalwissenschaftliche, anwendungsorientierte technische Methoden als auch Methoden der empirischen Sozialforschung enthalten.

Methodenspektrum der Wirtschaftsinformatik mit Anwendungsbeispielen, übernommen von WH07
Methode Beschreibung
Formal-/konzeptionell- und argumentativ-deduktive Analyse Logisch-deduktives Schließen kann als Forschungsmethode auf verschiedenen Formalisierungsstufen stattfinden: entweder im Rahmen mathematisch-formaler Modelle (z.B. in semi-formalen Modellen) oder rein sprachlich (argumentativ).
Simulation Die Simulation bildet das Verhalten des zu untersuchenden Systems formal in einem Modell ab und stellt Umweltzustände durch bestimmte Belegungen der Modellparameter nach. Sowohl durch die Modellkonstruktion als auch durch die Beobachtung der endogenen Modellgrößen lassen sich Erkenntnisse gewinnen.
Referenz-modellierung Die Referenzmodellierung erstellt induktiv oder deduktiv meist vereinfachte und optimierte Abbildungen von Systemen, um so bestehende Erkenntnisse zu vertiefen und daraus Gestaltungsvorlagen zu generieren.
Aktionsforschung Es wird ein Praxisbeispiel durch einen gemischten Kreis aus Wissenschaft und Praxis gelöst. Hierbei werden mehrere Zyklen aus Analyse-, Aktions-, und Evaluationsschritten durchlaufen, die jeweils gering strukturierte Instrumente wie Gruppendiskussionen oder Planspiele vorsehen.
Prototyping Es wird eine Vorabversion eines Anwendungssystems entwickelt und evaluiert. Beide Schritte können neue Erkenntnisse generieren.
Ethnographie Die Ethnographie möchte durch partizipierende Beobachtung Erkenntnisse generieren. Der Unterschied zur Fallstudie liegt in dem sehr hohen Umfang, in dem sich ein Forscher bzw. eine Forscherin in das untersuchte soziale Umfeld integriert. Eine objektive Distanz ist kaum vorhanden.
Fallstudie Die Fallstudie untersucht in der Regel komplexe, schwer abgrenzbare Phänomene in ihrem natürlichen Kontext. Sie stellt eine spezielle Form der qualitativ-empirischen Methodik dar, die wenige Merkmalsträger intensiv untersucht. Es steht entweder die möglichst objektive Untersuchung von Thesen (sozialwissenschaftlicher Zugang) oder die Interpretation von Verhaltensmustern als Phänotypen der von den Probanden konstruierten Realitäten (konstruktionsorientierter Zugang) im Mittelpunkt.
Grounded Theory Die Grounded Theory zielt auf eine induktive Gewinnung neuer Theorien durch intensive Beobachtung des Untersuchungsgegenstandes im Feld ab. Die verschiedenen Vorgehensweisen zur Kodierung und Auswertung der vorwiegend qualitativen Daten sind exakt spezifiziert.
Qualitative/ Quantitative Querschnittsanalyse Diese beiden Methoden fassen Erhebungstechniken wie Fragebögen, Interviews, Delphi-Methode, Inhaltsanalysen etc. zu zwei Aggregaten zusammen. Sie umfassen eine einmalige Erhebung über mehrere Individuen hinweg, die anschließend quantitativ oder qualitativ kodiert und ausgewertet werden. Ergebnis ist ein Querschnittsbild über die Stichprobenteilnehmer*innen hinweg, welches üblicherweise Rückschlüsse auf die Grundgesamtheit zulässt.
Labor-/Feldexperiment Das Experiment untersucht Kausalzusammenhänge in kontrollierter Umgebung, indem eine Experimentvariable auf wiederholbare Weise manipuliert und die Wirkung der Manipulation gemessen wird. Der Untersuchungsgegenstand wird entweder in seiner natürlichen Umgebung (im „Feld“) oder in künstlicher Umgebung (im „Labor“) untersucht, wodurch wesentlich die Möglichkeiten der Umgebungskontrolle beeinflusst werden.
Einsatzhäufigkeit der Methoden in der Stichprobe WH07
Empirisch gestütztes Methodenprofil der Wirtschaftsinformatik (Wilde und Hess 2007)

Design Science

Wie bereits erwähnt bedient sich die Wirtschaftsinformatik als angewandte Forschungsdisziplin auch Methoden aus anderen Disziplinen, wie Wirtschaft oder Informatik um die Probleme an der Schnittstelle von IT und Unternehmen zu lösen. Allerdings ist die dominante Forschung weiterhin weitgehend diejenige der traditionellen deskriptiven Forschung, abgeleitet von der sozialen Forschung.
In den letzten Jahren hat sich in der Wirtschaftsinformatik jedoch Design Science immer mehr etabliert. Design Science dient dabei als Forschungsparadigma mit der tatsächlichen Integration von Design als einem der wichtigsten Faktoren.
Hevner et al. präsentierten 2004 erstmals sieben Richtlinien für eine designorientierte Forschung Hev04:

  • Design als Artefakt: Design Science muss ein funktionsfähiges Artefakt in Form eines Konstrukts, eines Modells, einer Methode oder einer Instanziierung produzieren.
  • Problemrelevanz: Ziel von Design Science ist es, technologiebasierte Lösungen für wichtige und relevante Geschäftsprobleme zu entwickeln.
  • Designbewertung: Der Nutzen, die Qualität und die Wirksamkeit eines Design-Artefakts müssen durch gut ausgeführte Bewertungsmethoden rigoros nachgewiesen werden.
  • Forschungsbeiträge: Effektive Design Science muss klare und nachprüfbare Beiträge in den Bereichen Design-Artefakt, Design-Fundamente und/oder Designmethoden liefern.
  • Forschungsstrenge: Die Design Science beruht auf der Anwendung rigoroser Methoden sowohl bei der Konstruktion als auch bei der Bewertung des Design-Artefakts.
  • Design als Suchprozess: Die Suche nach einem effektiven Artefakt erfordert die Nutzung der verfügbaren Mittel, um die gewünschten Ziele zu erreichen und gleichzeitig die Gesetze in der Problemumgebung zu erfüllen.
  • Kommunikation der Forschung: Design Science muss sowohl dem technologie- als auch dem managementorientierten Publikum effektiv präsentiert werden.

Kernaspekt ist dabei das Artefakt, das geschaffen wurde, um ein Problem aus der Praxis zu lösen. Sein Nutzen, seine Qualität und Wirksamkeit müssen danach bewertet werden. Es reicht also nicht aus, das Artefakt zu erzeugen, auch der Test der Wirksamkeit spielt eine ebenso große Rolle.
In der Praxis wird der erste Punkt – das funktionsfähige Artefakt – oft in Form eines Prototyps oder eines Leitfadens umgesetzt. Fehlt jedoch der Test der Qualität und Wirksamkeit, dann entspricht dies nicht den wissenschaftlichen Ansprüchen an die designorientierte Forschung. Um eine wissenschaftliche Arbeit zu schaffen sollte man also die Punkte von Hevner als Checkliste abarbeiten. Betrachten wir die sieben Richtlinien etwas detaillierter:
Funktionsfähiges Artefakt
Das funktionsfähige Artefakt kann vom theoretischen Konzept bis zur praktischen Umsetzung alles beinhalten. Die Bandbreite reicht also von der Machbarkeitsstudie bis hin zum funktionierenden Prototyp eines Roboters.
Technologiebasierte Lösung
Die Entwicklung eines Prototyps birgt meist sowohl aus technologischer als auch aus wirtschaftlicher Sicht Potential in sich. Aus wissenschaftlicher Sicht ist es dabei wichtig sich erneut die Prinzipien von Umberto Eco in Erinnerung zu rufen. Die Untersuchung muss über diesen Gegenstand Dinge sagen, die noch nicht gesagt worden sind und die Untersuchung muss für andere von Nutzen sein. Speziell der Aspekt der Neuheit setzt für Forscher*innen voraus, sich zuvor mit vorhandener Literatur zu dem Thema auseinanderzusetzen, um den aktuellen Stand des Wissens zu ermitteln.
Qualität und Wirksamkeit
In der Softwareentwicklung dient unter anderem die ISO/IEC 250XX Software engineering – Software product Quality Requirements and Evaluation (SQuaRE) als Norm zur Qualitätssicherung. Sie beschreibt „Qualität ist die Gesamtheit von Eigenschaften und Merkmalen eines Produkts oder einer Tätigkeit, die sich auf deren Eignung zur Erfüllung gegebener Erfordernisse bezieht“ DIN08.
Neben dem Produkt liegt der Fokus auch auf dem Prozess der Entwicklung selbst, wie laut Mellis der Einhaltung bestimmter zeitlicher bzw. finanzieller Restriktionen und die Notwendigkeit der Einhaltung bestimmter Prozessrichtlinien Wer13. Das Zusammenspiel zeigt Abbildung 10.

Prozess- und Produktqualität nach Bal08

Eine Möglichkeit zur Evaluation von Artefakten besteht nach Hevner auch darin, den erzeugten Nutzen der Artefakte mit dem Nutzen von anderen Artefakten, die das gleiche Problem lösen, zu vergleichen Hev04.
Nachprüfbare Beiträge
Methoden oder Artefakte innerhalb des Prozesses müssen eindeutig nachvollziehbar sein. Wenn man eine Blackbox mit einem Input und einem Output generiert, dann genügt dies nicht den Ansprüchen der Nachvollziehbarkeit. Dieser Aspekt ist aus den Naturwissenschaften bekannt, ein Experiment muss nachvollziehbar und auch reproduzierbar sein.
Rigorose Methoden
Die Qualität von Software und Software-Entwicklungsprozessen kann durch formale Entwicklungsmethoden deutlich gesteigert werden. Es gibt viele verschiedene formale Methoden, die unterschiedlich gut für bestimmte Projekttypen geeignet sind. Ein Kriterium kann die Benutzerfreundlichkeit oder die Skalierbarkeit sein. In der Entwicklung der Software werden diese Spezifikationen dann in einer logisch nachvollziehbaren, formalen Sprache notiert. Bestimmte Eigenschaften wie Fehlerfreiheit in manchen Aspekten können damit auch mathematisch bewiesen werden.
Design als Suchprozess
Eine Wissensbasis zu dem spezifischen Thema wird anhand eines fortlaufenden iterativen Entwicklungsprozesses aufgebaut. Entwicklungen werden umgesetzt und evaluiert. Die Suche nach einem bestimmten Prüfgegenstand erfordert die Ausnutzung der verfügbaren Möglichkeiten um einen bestimmten Nutzen zu erreichen und gleichzeitig die Regeln des Problemumfeldes einzuhalten. Die Evaluierung selbst kann in Form von sehr formalen heuristischen Methoden mit Checklisten wie der ISO 9241 (Mensch-Computer Interaktion) oder der ISO 14915 (Software-Ergonomie für Multimedia-Benutzungsschnittstellen) erfolgen. Aber auch Benutzerevaluationen in Form von Interviews oder Eyetracking sind möglich. Das Methoden-Spektrum richtet sich sehr stark nach dem Artefakt.
Kommunikation der Forschung
Letztlich muss das Ergebnis auch einem wissenschaftlichen Publikum präsentiert werden. Im Zuge des Studiums erfolgt hier der erste Kontakt mit dem Thema meist beim Verfassen der Bachelor- oder Masterarbeit. In der weiteren wissenschaftlichen Karriere gilt dies auch für das Verfassen von Fachbeiträgen oder der Formulierung von Forschungsvorhaben.
Beispiel zur Umsetzung in der Praxis anhand einer Masterarbeit
In der Praxis hat man als Forscher*in oder Studierende*r oft eine Idee im Kopf. Angenommen wir wollen als Masterarbeit eine Anwendung für ein Mobiltelefon schreiben, das uns via GPS den Weg weist. Natürlich gibt es schon unzählige Apps zu dem Thema am Markt und es wäre daher auch kein wirklicher Neuigkeitswert gegeben. Sehen wir uns dennoch die 7 Richtlinien nach Hevner für dieses einfache Beispiel an:

  • Funktionsfähiges Artefakt
    • Das funktionsfähige Artefakt kann vom theoretischen Konzept der Anbindung von GPS am Mobiltelefon, bis hin zu einem Prototyp zur einfachen Navigation reichen. Ein einfacher Prototyp der die GPS Koordinaten auf einer Karte aufzeichnet wäre ausreichend.
  • Technologiebasierte Lösung
    • Die Entwicklung des Prototyps birgt sowohl aus technologischer als auch aus wirtschaftlicher Sicht Potential in sich. Eine (wirtschaftliche) Welt ohne GPS wäre heute kaum mehr vorstellbar.
  • Qualität und Wirksamkeit
    • Das Artefakt wurde gemäß ISO/IEC 25010 auf dessen Usability überprüft. Besonderes Augenmerk wurde dabei auf den Schutz vor Fehlbedienung durch Nutzer*innen gelegt.
  • Nachprüfbare Beiträge
    • Der Quellcode steht in digitaler Form zur weiteren Verarbeitung zur Verfügung. Einzelne Schritte können so leicht nachvollzogen werden.
  • Rigorose Methoden
    • Besonderer Wert wird auch auf die Verlässlichkeit gelegt. Kritische Programmteile wurden daher unter Einsatz formaler Methoden entwickelt.
  • Design als Suchprozess
    • Die Usability wird durch Standardchecklisten geprüft und weiter durch Feldversuche validiert.
  • Kommunikation der Forschung
    • Die Masterarbeit ist sowohl für Wissenschafter*innen als auch für interessierte Laien geschrieben. Ein roter Faden ist erkennbar und erlaubt es die Arbeit ähnlich einem Buch zu lesen. Als Masterarbeit wird die Arbeit auch veröffentlicht und steht damit für weitere Forschung zur Verfügung.

Qualitativ/Quantitativ: Was ist der Unterschied?

Methodologien und Methoden sind stark mit erkenntnistheoretischen und philosophischen Denkpositionen verbunden. In der Sozialforschung wird vor allem zwischen quantitativen bzw. qualitativen Methoden unterschieden.
Welche Methode in einem speziellen Forschungsvorhaben angewandt wird, muss je nach der jeweiligen Forschungsfrage entschieden werden. Zuvor muss klar sein, auf welche Fragen man Antworten sucht. Dann kann über die Methode entschieden werden.


Unterschiede zwischen qualitativen und quantitativen Forschungsmethoden
Quantitativ Qualitativ
Erklären Verstehen
Deduktiv/Theorien prüfend Induktiv/Theorien entwickelnd
Standardisiert/Geschlossen Nicht standardisiert/Offen
Lineares Forschungsdesign Zirkuläres Forschungsdesign
Hohe Fallzahl Niedrige Fallzahl
Statistik Offene Auswertungsverfahren
Zufallsstichprobe Bewusste Auswahl der Fälle
Prädetermination der Forschenden Relevanzsystem der Betroffenen
Objektiv Subjektiv
Starres Vorgehen Flexibles Vorgehen

Quantitative Methoden sollen kausale Beziehungen, die zwischen Erscheinungen über die Gesetze entwickelt werden sollen, aufdecken. Qualitative Methoden sehen ausgehend von dem Prinzip der sozialen Konstruktion der Wirklichkeit Menschen als schaffende Wesen. Soziale Tatsachen werden durch Menschen konstruiert und immer wieder neu interpretiert. Phänomene sind von Menschen mit Bedeutung versehen. Mittels qualitativer Methoden wollen ForscherInnen den Sinn hinter sozialen Handlungen verstehen.
Während in der quantitativen Sozialforschung der Forschungsablauf standardisiert abläuft, wählt die qualitative Sozialforschung eine natürliche Befragungssituation; Befragte können selbst bestimmen, was sie sagen wollen. Oftmals sagen die gewählten Erzählungen viel aus.
Quantitative Sozialforschung glaubt, soziales Handeln objektiv erfassen zu können. Die Subjektivität des Forschers, der Forscherin wird möglichst zurückgenommen. Das Forschungsobjekt wird deterministisch als Manifestation verschiedener Kausal-zusammenhänge gesehen. Die Qualitative Sozialforschung geht davon aus, dass keine objektive Befragungssituation geschaffen werden kann. Es wird vom einzelnen Fall ausgegangen und dessen subjektive Wirklichkeitskonstruktion beobachtet.


Quantitatives (oben) und qualitatives (unten) Forschungsdesign im Vergleich (Flick 2004, 73)

Quantitative Methoden

Mittels quantitativer Methoden will man Rückschlüsse auf Kausalzusammenhänge zwischen unabhängigen und abhängigen Variablen gewinnen. Vieles in der Sozialwissenschaft ist nicht direkt beobachtbar oder messbar (Messen = Zahlen zuordnen) und zählt damit zu den latent vorhandenen Realitäten (Bildung, Lebensqualität, Akzeptanz von neuen Produkten). Theoretische Konstrukte dienen als Modelle für diese latenten Realitäten. Soll zum Beispiel der Bildungsstand der Bevölkerung festgestellt werden, muss auf verschiedene Indikatoren zurückgegriffen werden: z.B. höchster Schulabschluss, Anzahl der Schuljahre, Textverständnis, Anzahl der gelesenen Bücher. In der Anwendung der quantitativen Methoden sind immer die Gütekriterien zu beachten, um unsystematische wie auch systematische Messfehler zu reduzieren.
Objektivität
Objektiv ist eine Messmethode dann, wenn die Ergebnisse unabhängig von der Person sind, die das Messinstrument anwendet. Probleme gibt es bei quantitativen Methoden vor allem bei der Durchführungsobjektivität, da beispielsweise die interviewende Person Einfluss auf das Untersuchungsfeld nehmen kann.
Validität (Gültigkeit)
Von Validität kann dann gesprochen werden, wenn die Methode das misst, was sie vorgibt zu messen. Eine Messung ist dann valide, wenn es einen Zusammenhang zwischen dem zu messenden Konzept und den Indikatoren, anhand derer gemessen wird, gibt. Auf Validität ist während des gesamten Forschungsprozesses zu achten. Das beginnt bei der Operationalisierung der Forschungsfrage und betrifft aber auch die Beziehung des Forschers, der Forscherin zum Forschungsfeld und dessen Beeinflussung.
Reliabilität (Zuverlässigkeit) Die Reliabilität kontrolliert die Stabilität und Genauigkeit der Messung. Eine Wiederholung des Experiments und der Erhebung unter gleichen Rahmenbedingungen würde das gleiche Ergebnis erzielen. Die Zuverlässigkeit beruht auf der Standardisierung des Kontexts und der Isolierung der untersuchenden Variablen. Qualitative Methoden haben nicht den Anspruch das Gütekriterium der Reliabilität zu erfüllen, da die untersuchten Einzelfälle bei jeder erneuten Erhebungseinheit voneinander abweichen können. Di01, 216ff
Quantitatives Forschungsdesign Ein quantitatives Forschungsvorhaben geht immer von einer bereits bestehenden Theorie aus. Im idealtypischen Forschungsablauf ist es unwichtig, wie es zu dem Ausgangspunkt der Theorie kommt. Die Entstehung von Theorie ist vorwissenschaftlich. Das heißt, grundsätzlich können Theorien intuitiv entstehen, natürlich überprüft ein Forscher, eine Forscherin oftmals Theorien, die andere Forscher*innen bereits zuvor aufgestellt haben. Po35
Auf Basis dieser Theorie werden Hypothesen gebildet, deren Annahme folglich im Forschungsprozess bestätigt bzw. widerlegt werden soll. Dazu ist es notwendig, die Hypothesen zu operationalisieren. Unter Operationalisierung versteht man den Wechsel von der Theoriesprache zur „Empiriesprache“. Theoretische Konzepte sollen auf konkret beobachtbare (messbare) Phänomene heruntergebrochen werden. Dies wird zu einem insgesamt sehr wichtigen Schritt in der empirischen Forschung. Wenn man nicht überzeugend operationalisiert, kann das eigene Forschungsvorhaben dafür kritisiert werden, dass man gar nicht das gemessen hat, was von einer Theorie behauptet wird (Validität).
Mittels eines Messinstruments (z.B. Fragebogens) werden Daten erhoben. Diese Daten werden mittels statistischer Methoden ausgewertet. Nach der Beschreibung und Interpretation der Ergebnisse werden diese gemeinsam mit der Beschreibung des Forschungsprozesses (Messinstrument, Datenerhebung, Auswertungsschritte) oftmals im Rahmen eines Forschungsberichtes dokumentiert und damit die intersubjektive Nachvollziehbarkeit gewährleistet.


Qualitative Methoden

Qualitative Methoden wurden als Antwort auf die Defizite der quantitativen Sozialforschung entwickelt. Der markante Unterschied der zwei Forschungsparadigmen ist, dass die qualitativen Methoden nicht standardisiert vorgehen. Qualitativ forschende Wissenschafter*innen wollen das Subjekt und seine subjektiv konstruierte Welt in aller Komplexität erfassen. Das sie leitende Prinzip ist Offenheit. Qualitative Sozialforschung will nicht Hypothesen prüfen, sondern Hypothesen generieren (induktives Vorgehen). Dabei werden im Laufe des Forschungsprozesses immer neue Hypothesen entwickelt. Wichtig für die qualitative Sozialforschung ist die Orientierung am einzelnen Subjekt. Es geht nicht darum, eine möglichst hohe Fallzahl zu erheben, sondern den Einzelfall genau zu beschreiben und zu analysieren.
Forscher*innen, die im qualitativen Paradigma forschen, glauben nicht an unveränderbare Naturgesetze, die das menschliche Handeln anleiten. Wenn sich bestimmte Phänomene häufen, wird von Regeln bzw. Strukturen gesprochen, die jedoch immer mit dem Kontext verbunden und Veränderungen unterworfen sind. Menschen handeln nach Regeln bzw. orientieren sich in ihrem Handeln an Strukturen und nicht an Gesetzen.
Qualitative Methoden erheben nicht den Anspruch, repräsentative Ergebnisse zu liefern, das heißt, ausgehend von der Stichprobe sollen keine Aussagen über die Grundgesamtheit getroffen werden.
Sehr wohl gibt es aber Vorgangsweisen für eine Verallgemeinerung der entwickelten Ergebnisse hin zu Theorien (z.B. Typenbildung). Verallgemeinerbarkeit findet jedoch nur durch Begründung und nicht durch (statistische) Verfahren statt. Die Verallgemeinerung steht damit auf einer argumentativen und induktiven Ebene und stellt kontextgebundene Regeln (statt Gesetzmäßigkeiten) auf. Ma02
Theorieverständnis in der qualitativen Sozialforschung
Der Umgang mit Theorien und theoretischen Konzepten unterscheidet sich je nach dem angewandten Forschungsansatz.


  • Ein Minimum an theoretischer Standortbestimmung ist die theoretische Einbettung des Forschungsvorhabens durch die Verwendung von Begrifflichkeiten, die von bestehenden Theorien abgeleitet wurden, sowie von sensibilisierenden Konzepten (z.B. interpretatives Forschungsparadigma).
  • In anderen qualitativen Forschungsansätzen (z.B. Qualitative Inhaltsanalyse nach Mayring) werden aus vorab bestehenden Theorien Kategorien deduktiv abgeleitet. Dennoch werden Theorien durch induktive Kategorienbildung ergänzt.
  • Schließlich gibt es auch qualitative Forschungsansätze, die ein theoretisches, variablenzentriertes Fallstudiendesign aufweisen.


Qualitative Erhebungsmethoden

  • Interviews
    • Einzelinterviews (Narrative Interviews, Expert*inneninterviews …)
    • Gruppeninterviews (Fokusgruppe)
  • Beobachtungen (Teilnehmende Beobachtung)
  • Nicht reaktive Verfahren (Dokumente, Artefakte)
  • Qualitatives Experiment

Die hier vorgestellten Erhebungsmethoden arbeiten zumeist auf sprachlicher Basis (Interviews, Gruppendiskussion), aber auch mit Beobachtung. In der qualitativen Forschung ist besonders der verbale Zugang, das Gespräch von großer Bedeutung. Subjektive Bedeutungen lassen sich nur schwer aus Beobachtungen ableiten. Die Subjekte können in Interviews etc. jedoch selbst zu Sprache kommen. Ma02, 66f.
Fallauswahl

  • Theoretical Sampling: Das Konzept des Theoretical Sampling stammt aus der Grounded Theory. Die Stichprobe wird aufgrund von theoretischen Überlegungen gewonnen. Der Forscher, die Forscherin sammelt, kodiert und wertet Daten aus und trifft aus diesem Prozess heraus die Entscheidungen, welche Daten als nächste zu sammeln sind. Die qualitative Sozialforschung interessiert weniger, wie ein Problem statistisch verteilt ist, sondern welche Probleme es gibt und wie diese beschaffen sind. So können beispielsweise abweichende Beispiele sehr erkenntnisreich sein und interessante Aufschlüsse geben. Zu beachten ist, dass die Auswahl der Stichprobe bestimmt, was später gesagt werden kann.
  • Qualitativer Stichprobenplan: Hier wird ein Sample (Stichprobe) selektiv gezogen. Es liegen bereits Informationen zu Merkmalen vor, die relevante Erkenntnisse versprechen. Wenn bereits quantitative Forschungsergebnisse vorliegen, können diese im Stichprobenplan berücksichtigt werden.

Qualitative Auswertungsverfahren im Überblick (interpretative Verfahren)

  1. Verfahren der Kodierung und Kategorisierung: Gegenstandsbezogen, Interpretation und Reduktion des Materials durch induktive Bildung von Kategorien, auch auf nicht-textliches Material und bei größeren Datenmengen anwendbar;
  2. Sequentielle Analysen: stärker fall- und subjektorientiert, größere Tiefenschärfe, eher für kleinere Datenmengen geeignet.
Qualitative Auswertungsverfahren im Überblick

Ein Forschungsprozess in der Sozialwissenschaft kann wie folgt aussehen:


  1. Formulierung und Präzisierung des Forschungsproblems
    1. Auftragsklärung
    2. Forschungsfrage formulieren
    3. Theoretischen Rahmen festlegen
  2. Forschungsdesign konzipieren
    1. Entscheidung für ein Forschungsparadigma
    2. Welche Methode? Welche Daten?
    3. Auswahl und Erhebung der Daten
    4. Auswertung der Daten
  3. Durchführung
  4. Ergebnisdarstellung/Bericht
  5. Publikation
Das Forschungsdesign im Überblick

Methodentriangulation

In der wissenschaftlichen Praxis kommt es häufig zu einer Verknüpfung des quantitativen Ansatzes mit dem qualitativen Ansatz. Das wird als Methodentriangulation verstanden. Die Triangulation ist eine methodische Technik, um einen Untersuchungsgegenstand möglichst breit und tief erfassen zu können. Die Verknüpfung der verschiedenen Paradigmen kann in unterschiedliche Forschungsdesigns eingebettet werden (siehe Abbildung 14). Dabei können Vorteile beider Forschungsparadigmen verknüpft und Nachteile verringert werden.

Basisdesign zur Verbindung qualitativer und quantitativer Forschung MH94

Datenerhebung

In der Regel werden unabhängig von der verwendeten Methode Daten erhoben. Einige statistische Grundlagen der deskriptiven Statistik (sie beschreibt Merkmale wie beispielsweise die durchschnittliche Größe von Schüler*innen) und der Inferenzstatistik (sie untersucht Hypothesen) sollen hier gezeigt werden.
Skalen
Variablen-Ausprägungen werden auf Skalen gemessen.

  • Skalenniveaus bestimmen, welche statistischen Maßzahlen zur Beschreibung eines Merkmals verwendet werden dürfen.
  • Skalenniveaus bestimmen, mit welchen Methoden Zusammenhänge zwischen zwei Merkmalen bestimmt werden.
  • Skalenniveaus geben an, welche statistischen Tests und Modelle verwendet werden dürfen.
Auflistung Skalenniveaus
Beispiel Rechen-operationen
Kategoriell Nominalskala Mann/Frau A = B oder A B
Ordinalskala Stimme sehr, ziemlich, wenig, gar nicht zu Reihenfolge
Metrisch Intervallskala IQ A - B, B + C Abstände
Verhältnisskala Einkommen in Euro, Alter A / B, Verhältnisse (doppelt soviel etc).

Grundgesamtheit und Stichprobe
Als Grundgesamtheit wird die Population verstanden, über die man eine Aussage treffen will. Ist eine Vollerhebung nicht möglich oder nicht sinnvoll, wird eine Stichprobe gezogen, aufgrund derer man mittels der Methoden der Statistik (Inferenzstatistik) repräsentative Aussagen über die Grundgesamtheit trifft. Durch die Art der Stichprobenziehung soll gewährleistet werden, dass die Stichprobe die Grundgesamtheit entweder in Bezug auf alle Merkmale oder auf ein bestimmtes Merkmal gut repräsentiert.
Als häufigste Arten der Stichprobenziehung gelten:

  • die einfache Zufallsstichprobe: Die Wahrscheinlichkeit, in die Stichprobe aufgenommen werden, ist für jede Person gleich. Gängige statistische Verfahren basieren auf Zufallsstichproben.
  • die geschichtete Stichprobe: mit Zufallsauswahl in jeder Schicht; Schichten sind vordefiniert (z.B. Bundesländer, Geschlecht, Alter).
Wechselspiel Grundgesamtheit und Stichprobe

Organisation der Daten
Für statistische Berechnungen werden die Daten in eine Datenmatrix eingefügt. Eine Datenmatrix ist die Darstellung von Daten in einer Tabelle. Die Erstellung der Datenmatrizen erfolgt entweder in eine Statistik-Software (z.B. R oder SPSS) oder in einem Tabellenkalkulationsprogramm (z.B. Excel).
In jeder Zeile befindet sich ein Merkmalsträger bzw. ein Fall. In den Spalten finden sich die Merkmale oder auch Variablen (z.B. Alter, Größe, Einkommen).


Person Alter Größe Einkommen
1 24 1,63 3.250
2 57 1,55 0
3 43 1,80 2.300
 

Merkmale, die nicht in Zahlen ausdrückbar sind, wie zum Beispiel Geschlecht, Zufriedenheit mit einem Produkt, müssen umkodiert werden. Das heißt, den einzelnen Ausprägungen werden Zahlen zugeordnet. Zusätzlich gibt es eine Unterscheidung in „gültige Werte“ und „fehlende Werte“.
z.B. Variable Geschlecht
1 … Mann
2 … Frau
99 … keine Angabe/Angabe verweigert (fehlender Wert)
z.B. Zufriedenheit mit einem Produkt
1 … sehr zufrieden
2 … ziemlich zufrieden
3 … wenig zufrieden
4 … gar nicht zufrieden
99 … keine Angabe/Antwort verweigert (fehlender Wert)
Datenauswertung – Überblick über statistische Verfahren
Zu den wichtigsten Aktivitäten der erfahrungswissenschaftlichen/empirischen Forscher*innen zählen die Beschreibung von Untersuchungseinheiten im Hinblick auf einzelne Variablen (univariate Verteilungen), die Beschreibung der Beziehung zwischen Variablen (bivariate und multivariate Verteilungen), sowie die Generalisierung von Untersuchungsresultaten (Inferenzstatistik, Signifikanztests). Be05, 11
Die Multivariaten Verfahren gliedern sich in Ba03:

  • Strukturentdeckende Verfahren
    • Faktorenanalyse, Hauptkomponentenanalyse
    • Clusteranalyse
    • Multidimensionale Skalierung
  • Strukturprüfende Verfahren
    • Regressionsanalyse (lineare Regression, logistische Regression)
    • Varianzanalyse
    • Strukturgleichungsmodelle

Deskription
Deskriptiv (=beschreibend) vorzugehen, heißt meistens Antworten auf Fragen des Typs „Wie ist/sind…?“ zu suchen. Jede Beschreibung braucht eine theoretische Vorstellung darüber, was wichtig ist. Dieser theoretische Hintergrund muss immer so explizit wie möglich formuliert werden. Bei der deskriptiven Statistik werden folgende Beschreibungsarten unterschieden:

  • Beschreibung eines Merkmals (univariate Verteilungen)
  • Beschreibung von einfachen Zusammenhängen (bivariate Verteilungen)
    • Kreuztabellen
    • Kontingenzmaße
    • Kovarianz
    • Korrelation

Induktion (Indifferenzstatistik)
In der Statistik kommt der Begriff Induktion zur Anwendung, wenn festgestellte Fakten dazu genutzt werden, eine Aussage einer Theorie zu bestärken. Hierbei handelt es sich um Wenn-Dann-Beziehungen. Die Kausalzusammenhänge einer Theorie werden in Zahlenwerten erhoben und anhand dieser bewertet.
Korrelation
Die Korrelation beschäftigt sich damit, wie häufig interessierende Merkmalskombinationen gemeinsam auftreten. Die Korrelation misst die Stärke des Zusammenhangs zwischen den interessierenden Variablen, das heißt, wie viele die Annahme bestätigende Fälle und wie viele Ausnahmefälle es gibt. Ein Zahlenwert zwischen 0 (kein Zusammenhang) und ±1 (Maximaler Zusammenhang) gibt Auskunft über die Stärke des Zusammenhangs. Plus oder Minus gibt dabei die Richtung des Zusammenhangs an.
Signifikanz
Die Signifikanz beschäftigt sich damit, ob der festgestellte Zusammenhang im Sinne einer statistischen Wahrscheinlichkeit als Zufall zu betrachten ist. Sie beantwortet die Frage, ob eine begrenzte Stichprobe als Beweis für einen Zusammenhang, der in der Grundgesamtheit besteht, zu interpretieren ist oder nicht. Signifikanz kommt dann zum Tragen, wenn eine Stichprobe gezogen wird, das heißt, wenn nicht die Grundgesamtheit (alle Untersuchungseinheiten/Personen, die uns interessieren) erhoben wird. Eine Stichprobe ist eine zufällige Auswahl aus der Grundgesamtheit. Die Signifikanz eines Ergebnisses hängt einerseits von der Stärke des Zusammenhangs, andererseits von der Stichprobengröße n ab, also davon, auf wie vielen Fällen ein gefundener Zusammenhang beruht. Je größer die Stichprobe, desto eher ist ein Ergebnis signifikant. Dann ist jedoch vor allem auf die Stärke des Zusammenhangs zu achten (Korrelation). Ed01, 2.1-2.12
Beschreibung eines Merkmals Be05


  • Häufigkeitsverteilungen
  • Lagemaße
    • Mittelwert (arithmetisches Mittel, Median, Modus)
    • Streuungsmaße (Quartile, Standardabweichung, Varianz)
  • Graphische Darstellung

Kontroll- und Wiederholungsaufgaben

  1. Im Masterstudium Wirtschaftsinformatik an der FernFH muss es sich bei Abschlussarbeiten jedoch um empirische Forschungsarbeiten handeln, welche auch methodisch im Methodenspektrum der Wirtschaftsinformatik angesiedelt sind.

Von der Idee zur Forschungsfrage

Ziele der Lektion
In dieser Lektion sollen Techniken und Hilfsmittel erlernt werden, die den Weg zur Formulierung einer konkreten Forschungsfrage erleichtern.

Ideen sammeln und ordnen

Der Weg vom Thema zur Fragestellung ist ein wesentlicher Abschnitt im Prozess der Masterarbeit, bzw. jeder wissenschaftlichen Arbeit. Ein Thema kann sehr weitläufig sein, unüberschaubar und verwirrend; eine konkrete Fragestellung zwingt zum Eingrenzen, gibt eine Richtung vor und hilft bei der Erstellung eines Konzeptes, sowie bei Literaturrecherche und Wahl der Methode.
Es geht also darum, den Rahmen der Arbeit so zu setzen, dass die Arbeit in einer gewissen Zeit und mit gewissen Ressourcen auch machbar ist. Interesse für die Fragestellung ist eine gute Voraussetzung, grundsätzlich ist es aber zu vermeiden, eine Fragestellung zu suchen, die dem/der Schreibenden zu nahe ist; es muss Distanz bewahrt werden können.
Oft ist Interesse für ein bestimmtes Themengebiet vorhanden, es gibt vielfältige Ideen und Zugänge zu dem Themenbereich. Im Folgenden werden einige Hilfsmittel vorgestellt, wie ein diffuses Interesse oder ein sehr breiter Themenbereich zu einer konkreten und beantwortbaren Fragestellung führen kann, die dann den Ausgangspunkt für den darauffolgenden Forschungsprozess darstellt.

Das wissenschaftliche Tagebuch

Ein wissenschaftliches Tagebuch ist nichts anderes als eine über einen längeren Zeitraum geführte Ideensammlung. Es geht darum, Fragen, die im Alltag auftauchen, während der Lektüre von Texten, in Filmen, Vorlesungen, in Gesprächen oder Diskussionen, zu dokumentieren und kommentieren. Es werden „fremde und eigene Geistesblitze“ (Esselborn-Krumbiegel, 2004, S. 36) festgehalten, aber auch einfach Beobachtungen, Unklarheiten und Fragen die im Alltag auftauchen, Projektideen, Zusammenhänge die sich plötzlich erschließen, erhaltene Literaturtipps oder auch Gesprächsnotizen. Oft entstehen neue Ideen nicht am Schreibtisch und gehen deshalb verloren oder müssen mühsam rekonstruiert werden. Das wissenschaftliche Tagebuch ist eine unkomplizierte Methode, diese Geistesblitze einzufangen. Vor allem dadurch, dass es über einen längeren Zeitraum geführt wird, entstehen vielfältigere und besser durchdachte Ideen als durch ein einmaliges Hinsetzen und Nachdenken. Das alltägliche Leben bietet Impulse, die ein Schreibtisch in vielen Fällen nicht bieten kann. Erste Ideen und Ansätze für eine wissenschaftliche Arbeit können so wie von selbst entstehen.
Jegliche Art der Dokumentation kommt für ein wissenschaftliches Tagebuch in Frage. Ob es ein Ringordner, ein Heft, eine Mappe oder eine Word-Datei ist, ist unwesentlich. Folgende Fragen können helfen (Fleischer, 2008, S. 16):

  • Was habe ich Neues gelernt?
  • Was ist mir aufgefallen?
  • Welche Inhalte waren neu für mich?
  • Woran werde ich inhaltlich noch weiterarbeiten?
  • Was möchte ich in den nächsten Tagen einmal anwenden?
  • Was will ich noch nachholen, was will ich klären?
  • Wo habe ich noch Fragen?

Es ist empfehlenswert, das Tagebuch auch nach der Formulierung der Forschungsfrage, also während des eigentlichen Forschungsprozesses fortzusetzen. Es werden immer wieder Fragen auftauchen, Literaturtipps hinzukommen oder neue Zusammenhänge erkannt werden.

Cluster

Ein Tagebuch hilft, langfristig ein Thema zu verfolgen und Interessen auf die Spur zu kommen. Bei kurzfristigen Einfällen zu einem konkreten Thema ist die Methode des Clusters hilfreicher. Es werden hier zu einem Thema Assoziationen gebildet. Von einem zentralen Begriff ausgehend werden assoziativ Ideen entwickelt. Dabei gibt es verschiedene Ideenstränge, die unterschiedlich viele Begriffe beinhalten können. Wenn ein Ideenstrang erschöpft ist, wird wieder ausgehend vom Zentrum ein neuer eröffnet. Es gibt beim Clustering keine logische Ordnung. Das Clustern von Ideen dient dazu, Gedankenketten entstehen zu lassen und „verschüttetes Wissen zu aktualisieren.“ (Esselborn-Krumbiegel, 2004, S. 38) Es sollen später nicht alle Ideen aufgegriffen werden, das Clustern dient allein dazu, alle Einfälle festzuhalten, um später eine Auswahl treffen und sie konkretisieren zu können. Es zeigt sich, dass nicht alle Aspekte des Clusters gleichermaßen interessant erscheinen.

Ein Cluster zum Thema „Internet“ könnte zum Beispiel so aussehen:

Ein Cluster zum Thema Internet
Ein Cluster zum Thema Internet

Die fett markierten Pfeile verdeutlichen jenen Ideenstrang, der am meisten Interesse ausgelöst hat. In einem weiteren Schritt könnte der Punkt „UserInnen von Websites“ als zentraler Ausgangspunkt gewählt werden und so die Ideen und Assoziationen zu diesem Punkt vertieft werden. Das Beispiel zeigt, wie durch Assoziationsketten von einem sehr breiten Thema (Internet) hin zu einem sehr konkreten (Sehbehinderte UserInnen von Websites) Problem gedacht werden kann. Der Prozess der Themen¬eingrenzung wäre in diesem Fall durch das Erstellen eines Clusters bereits weit fortgeschritten.

Free Writing

Free Writing ist eine Methode, die hilft, Schreibblockaden und Schreibwiderstände zu lösen. Es soll in 10 Minuten möglichst viel über ein Thema geschrieben werden, ohne durchzustreichen und ohne auf Rechtschreibung oder Form zu achten, und auch ohne Hilfsmittel: nur mit Papier und Stift oder Tastatur. Es wird bei dieser Methode die Fähigkeit unterstützt, Dinge in eigenen Worten wiederzugeben und es ist meistens erstaunlich, wie viel Wissen über das Thema der/die Schreibende bereits gesammelt hat.
Free Writing bringt einen intensiven Kontakt mit dem Thema, und ein „innerer Zensor“ wird umgangen. Free Writing kann der erste Zugang zu wissenschaftlichen Texten sein, ein erster Schritt in Richtung Textproduktion und gleichzeitig eine assoziative Methode, Ideen zu verknüpfen und Themen zu vertiefen. Im Falle des oben erwähnten Beispiels wäre es eine Möglichkeit zu versuchen, alle Aspekte des Problems der Website-Nutzung von sehbehinderten Menschen kurz aufzuschreiben, sich zu überlegen, wo Lösungsansätze liegen können, welche es schon gibt und welche Erfahrungen der Verfasser oder die Verfasserin selbst schon damit gemacht hat; und das alles ohne jegliche Hilfe von Büchern oder anderen Quellen.

Mind Mapping

Die Technik des Mind Mapping dient der Visualisierung von Ideen. Die Hauptidee steht im Zentrum der Mind Map, alle Ideen sind nach ihrer Wichtigkeit von innen nach außen geordnet. Mehr als beim Cluster geht es hier um Strukturierung und Hierarchisierung von Ideen. Die Ideen, die zusammengehören, sind durch Linien verbunden. Die Verknüpfung von Ideen wird dadurch angeregt. Mit Hilfe einer Mind Map ist es leichter, sich an gewisse Dinge zu erinnern oder auch neue Informationen hinzuzufügen.
Es gibt verschiedene Programme, mit denen Mind Maps erstellt werden können. Es gibt dabei auch die Möglichkeit, Texte an einzelne Mind Map Zweige anzuhängen, und Mind Maps als lineare Gliederungsstruktur auszudrucken. Mind Maps helfen vor allem bei der Gliederung und Ordnung von Ideen. Es kann zum Beispiel hilfreich sein, gelesene Literatur mit Hilfe einer Mind Map aufzuschlüsseln und zu visualisieren, oder ein vorläufiges Inhaltsverzeichnis als Mind Map darzustellen. Es wird mit dieser Technik oft klarer, welche Ideen oder Begriffe zu welchem Abschnitt passen, welche Abschnitte es geben wird und wie diese wiederum strukturiert sein könnten. Vor allem durch die Hierarchisierung der Ideen lassen sich zu einem späteren Zeitpunkt Kapitel und Unterkapitel leichter einteilen.

Beispiel einer Mind Map zum Thema „Logik“:[1]

Eine Minmap zum Thema Logik

Fragestellungen entwickeln

Thema eingrenzen

Die Eingrenzung des Themas kann eine langwierige Arbeit sein, ist aber einer der wichtigsten Schritte im Prozess des wissenschaftlichen Arbeitens. Ein Thema muss fest umrissene Grenzen haben, um zu verhindern, dass die Arbeit ausufert; vor allem bei Diplom- bzw. Masterarbeiten kann das leicht passieren. In einer Arbeit kann nicht alles gesagt werden, aber was gesagt wird, muss begründet werden, und innerhalb der Grenzen soll die Analyse in die Tiefe gehen. Generell gilt also: Es soll nicht in die Breite, sondern in die Tiefe geforscht werden. Norbert Franck spricht von drei Fallen, in die StudentInnen bei Abschlussarbeiten oft tappen (Franck, 2006, S. 161):

  • Die Wahl eines Themas, das den Verfasser bzw. die Verfasserin überfordert und im Rahmen einer Abschlussarbeit nicht behandelt werden kann.
  • Die Behandlung von „Jahrhundertthemen der Wissenschaft“ und
  • Mode-Themen, über die sehr viel publiziert wird, weshalb die Literaturflut oft nicht zu bewältigen ist.

Umberto Eco hat vier Regeln für die Themenwahl bei einer Abschlussarbeit aufgestellt (Eco, 2003, S. 14f.):

  • Das Thema soll den Interessen des Verfassers oder der Verfasserin entsprechen
  • Die Quellen müssen für den Verfasser oder die Verfasserin auffindbar und zugänglich sein
  • Der Verfasser oder die Verfasserin muss mit den Quellen umgehen können
  • Die methodischen Ansprüche des Forschungsvorhabens müssen dem Erfahrungsbereich des Verfassers oder der Verfasserin entsprechen.

Zusammenfassend liegt diesen Regeln zugrunde, dass das Vorhaben „machbar“ sein muss. Das Thema muss überschaubar sein, die Quellen zugänglich und verständlich (zum Beispiel in einer Sprache, die der Verfasser oder die Verfasserin versteht), und es sollte ein grundlegendes Interesse für den Themenbereich vorhanden sein. Es stellt sich nun allerdings die Frage, welche Techniken angewendet werden können, um ein Thema einzugrenzen und zu verhindern, dass die Fragestellung zu breit gefasst ist. Erstens können die schon erwähnten „Einstiegshilfen“ helfen und schon ein wenig konkreter gefasste Ideen liefern. Zweitens schlägt Norbert Franck eine Liste an Eingrenzungsmöglichkeiten vor, die helfen können, ein Thema zu begrenzen (Franck, 2006, S. 161):

  • Zeitliche Begrenzung: Festlegung eines bestimmten Zeitraums
  • Geographische Begrenzung: nach Ländern, Bezirken, Regionen, etc.
  • Begrenzung nach Institutionen: zum Beispiel Konzentration auf eine Institution, wie zum Beispiel: „Schule“, „Universität“, oder aber auch ein bestimmtes Unternehmen, oder alle Unternehmen in einem gewissen Bereich z.B. „Software-Firmen“.
  • Begrenzung nach Personengruppen: Das können bestimmte UserInnengruppen sein: Altersgruppen, Nationalitäten, bestimmte Berufsgruppen, Männer- oder Frauenspezifische Forschungen etc.
  • Begrenzung nach Disziplingesichtspunkten: Stehen wirtschaftliche, soziologische, mathematische (etc.) Gesichtspunkte im Vordergrund?
  • Begrenzung nach Theorieansätzen: Zur Bearbeitung des Themas wird eine bestimmte Theorie herangezogen; nur was mithilfe dieser Theorie bearbeitet werden kann, ist Inhalt der Forschung.
  • Begrenzung nach VertreterInnen eines Theorie- oder Erklärungsansatzes
  • Begrenzung nach Anwendungsbereichen: Welche Anwendungsbereiche interessieren mich?

Fragestellungen formulieren

Die Formulierung der konkreten Fragestellung geht mit der Eingrenzung des Themas einher. Einerseits kann die Fragenformulierung dazu beitragen, das Thema zu konkretisieren, andererseits braucht es ein begrenztes Themengebiet, um eine zentrale, aber dennoch konkret zu beantwortende Frage dazu stellen zu können. Es ist grundsätzlich empfehlenswert, dabei auf die so genannten W-Fragen zurück¬zugreifen (Franck, 2006, S. 159):

Frage zielt auf

W-Fragen
Frage zielt auf
Was Gegenstandsbestimmung
Warum, Wozu Ursache, Grund, Zweck, Ziel
Wie Art und Weise
Wer Personen, Gruppen
Wo Ort, Geltungsbereich
Wann Zeit(raum)

Zu dem oben im Cluster erarbeiteten Thema könnten verschiedene Fragen gestellt werden:

  • Warum ist der barrierefreie Zugang zu Websites ein Thema, das in der Wirtschaftsinformatik relevant ist?
  • Welche Methoden oder Prüftools gibt es, um barrierefreien Zugang zu Websites für Sehbehinderte zu ermöglichen? Welche Nachteile entstehen durch Barrieren im Internet für Sehbehinderte im Alltag?
  • Wann wurde das Problem der Barrierefreiheit im Internet erstmals formuliert? Seit wann ist es ein Thema der Wirtschaftsinformatik?
  • Wer sind die AkteurInnen, wer hat Einfluss auf die Barrierefreiheit? Wer hat sich bereits wissenschaftlich mit dem Problem auseinandergesetzt?
  • Wie kann das Ziel der Barrierefreiheit erreicht werden? Wie hoch ist die Anwendungsrate des Internets unter Sehbehinderten zwischen 16 und 35 Jahren in Österreich?
  • Wie viel Prozent der Websites sind für Sehbehinderte zugänglich?

All diese Beispiele sind nur einige wenige Möglichkeiten, Fragestellungen zu formulieren. Wichtig ist dabei, dass sich eine Forschungsfrage nicht mit „ja“ oder „nein“ beantworten lassen sollte.

Die Technik des wissenschaftlichen Arbeitens

Ziel der Lektion
Nach Auseinandersetzung mit dieser Lektion, sollten Ihnen die Grundregeln des wissenschaftlichen Arbeitens vertraut sein. Sie sollten imstande sein:

  • zu einem Thema systematisch Quellen zu finden
  • diese richtig und vollständig zu zitieren
  • Zusammenfassungen zu schreiben
  • ein Literaturverzeichnis zu erstellen
  • den Forschungsstand eines Themas zu überblicken
  • ein Exposé zu verfassen
  • ein Abstract zu verfassen

Überblick

Überblick über den Prozess des wissenschaftlichen Arbeitens

Literaturrecherche

Arten wissenschaftlicher Literatur

Für die Erarbeitung des Forschungsstandes eines Themas ist es wichtig zu prüfen, ob die gefundene Literatur den Kriterien der Wissenschaftlichkeit genügt. Es müssen Quellen angegeben sein, es muss zitiert werden, eine Struktur und ein klarer Aufbau erkennbar sein. Im Großen und Ganzen kann unterschieden werden in:

  • Monographien: Der gesamte Text des Buches wurde von einem/einer oder mehreren AutorInnen verfasst und meistens in Buchform von einem Verlag publiziert.
  • Sammelbände: In einer Publikation befinden sich Beiträge, oft in Essayform, von verschiedenen AutorInnen. Es gibt eine/n oder mehrere HerausgeberInnen, die im Literaturverzeichnis, nicht aber in den Fußnoten angegeben werden müssen.
  • Wissenschaftliche Zeitschriften/Journals: Zeitschriften, die in regelmäßigen Abständen erscheinen, und mehrere Beiträge von verschiedenen AutorInnen enthalten. Meist sind Zeitschriften einer bestimmten Disziplin zu¬zuordnen und die einzelnen Ausgaben oft zu einem bestimmten übergeordneten Thema verfasst. In Journals finden sich die aktuellsten Ergebnisse.

Strategien der Literatursuche

Die Methode der konzentrischen Kreise
Die Recherche beginnt damit, eine oder mehrere zentrale Quellen aufzuspüren. Über die Literaturverzeichnisse dieser Quellen werden dann weitere Literatur-hinweise erschlossen. Oft sind solche zentralen Werke auch Lehrbücher, Übersichtsartikel, neue Monographien, die auf alte Quellen zurückgreifen, Beiträge aus Enzyklopädien oder Handwörterbüchern. Die neue Literatur erschließt sich dem-nach wie konzentrische Kreise um einen Mittelpunkt, jede weitere Publikation erwähnt wieder neue Quellen. Nach einiger Zeit wird man – sofern die Fragestellung eng genug ist – auf alte Bekannte stoßen. Die wichtigsten Quellen sind auf diese Art und Weise in sehr kurzer Zeit gefunden. Ein großer Nachteil dieser Methode ist, dass nicht zitierte Literatur nicht gefunden werden kann. Auch läuft man Gefahr, nur die Arbeiten von Gleichgesinnten zu finden, da andere, widersprüchliche Quellen, erst gar nicht zitiert werden. Weiters ist es schwierig, mit Hilfe der Methode der konzentrischen Kreise Beiträge aus Nachbardisziplinen zu finden. Außerdem ist zu beachten, dass die zitierten Quellen allesamt älter sind als die Ausgangsquelle, eventuell schon existierende neue Literatur nicht gefunden wird und so die Aktualität des Erkenntnisstandes gemindert wird. (Kornmeier, 2007, S. 117f.)
Die systematische Suche
Offensichtlich genügt die soeben beschriebene Art der Literatursuche nicht. Die systematische Suche nach relevanter Literatur in Zeitschriften und Literatur-datenbanken ist umfassender und daher auch erfolgversprechender. Es ist sinnvoll, die Suche in für das Thema relevanten Fachzeitschriften zu be-ginnen, da diese meistens auf dem neuesten Stand der Forschung sind. Es sollten sowohl aktuelle als auch ältere Jahrgänge durchgearbeitet werden. Fachzeit-schriften können entweder in Bibliotheken zu finden sein oder über bestimmte Websites online abrufbar sein (siehe „Internetrecherche“). Elektronische Daten-banken, Kataloge von Bibliotheken und Online-Datenbanken sowie Online-Zeitschriften haben einen weiteren Vorteil: Es kann nicht nur nach Schlagwörtern, Titel und Verfasser gesucht werden, sondern auch nach einzelnen Stichwörtern in den Abstracts. Großer Vorteil dieser Strategie ist, dass das Thema aus der „Hubschrauber-Perspektive“ erfasst werden kann. (Kornmeier, 2007, S. 119) Grundsätzlich gilt, dass nicht immer alle Texte gelesen werden können und auch nicht gelesen werden müssen. Folgende Informationen sind meistens ausreichend, um zu bestimmen, ob ein Text relevant ist (Kornmeier, 2007, S. 119):

  • Der Titel und der Untertitel eines Beitrags
  • Das Inhaltsverzeichnis
  • Die Zusammenfassung (englisch: Abstract)
  • Der Schlussteil (englisch: Summary)
  • Die literarische Gattung
  • Eine kurze inhaltliche Prüfung (Querlesen)
  • Das Erscheinungsjahr

Auch bei diesem Schritt gilt die Grundregel: Es muss klar sein, wonach gesucht wird. Ist das Themengebiet noch zu breit, ist die Fülle an Material unüberschaubar. Ist schon relativ klar, wie das Thema eingegrenzt wird, kann viel gezielter gesucht werden.

Standorte der Literaturrecherche

Bibliotheken

In Bibliothekskatalogen sowie auch in Online-Suchmaschinen oder Datenbanken wird mittels Schlagwörtern und Stichwörtern nach relevanter Literatur gesucht.

  • Schlagwort: Ein Wort, das den Inhalt eines Textes am treffendsten bezeichnet, das Wort muss jedoch im Titel des Textes nicht vorkommen
  • Stichwort: Ein Stichwort ist ein Begriff, der wörtlich dem Titel entnommen ist.

Jedem Buch oder Artikel sind mehrere Schlagwörter zugeordnet, um die Suche nach diesem Text zu vereinfachen.
Übliche Recherchestandorte sind öffentliche Bibliotheken, wie zum Beispiel in Universitäten und Fachhochschulen oder Landesbibliotheken, sowie Institutionen, Organisationen und Unternehmen. Eine vollständige Liste der Bibliotheken und ihrer Standorte, Öffnungszeiten und Entlehnungsmodalitäten in Österreich kann leicht dem Internet entnommen werden. An dieser Stelle sei nur auf den Online-Gesamtkatalog der österreichischen Bibliotheken verwiesen:
http://www.obvsg.at/kataloge/verbundkataloge/
Grundsätzlich wird hier mit Hilfe von Schlagwörtern und Stichwörtern gesucht. Alle Werke, die auf diese Hinweise zutreffen, werden mitsamt aller Angaben sowie Standorten, an denen sie entlehnt werden können, angezeigt. Oft gibt es bestimmte Bücher oder Zeitschriften nur in sehr weit entfernten Bibliotheken. Es ist möglich, mittels Fernleihe, die über eine Bibliothek in der näheren Umgebung abgewickelt werden kann, an diese Exemplare zu kommen. Außerdem gibt es die Dokumentenlieferdienste (siehe 4.3.2), die Texte zustellen. Es ist zu beachten, dass Bibliotheksrecherche Zeit in Anspruch nimmt, manchmal auf Bücher gewartet werden muss und Entlehnfristen einzuhalten sind. Gerade Grundlagenwerke und ältere Publikationen sind allerdings oftmals nur über diesen Weg zugänglich. Eine vollständige und umfassende Recherche kann nicht ohne das Durchsuchen von Bibliothekskatalogen erfolgen.

Literatursuche im Internet

Vor allem der Zugang zu neuerer Literatur ist durch das Internet wesentlich leichter. Auf eine Reihe von E-Journals aber auch digitalisierten Büchern kann über diverse Datenbanken zugegriffen werden. Hierbei wird grundsätzlich zwischen Open-Access-Datenbanken und kostenpflichtigen Datenbanken unterschieden. Wie unten angeführt, gibt es bereits einige Initiativen, wissenschaftliche Texte frei zugänglich ins Netz zu stellen. Die meisten Publikationen sind jedoch käuflich zu erwerben. Neben herkömmlichen Suchmaschinen gibt es außerdem wissenschaftliche Suchmaschinen, die nur nach wissenschaftlicher Literatur suchen.
Wissenschaftliche Suchmaschinen

  • www.scholar.google.com: die wissenschaftliche Variante von google, spezialisiert auf wissenschaftliche Texte; sowohl frei zugängliche Texte, soweit vorhanden, als auch links zu jstor, SpringerLink und anderen kostenpflichtigen Datenbanken.
  • http://citeseer.ist.psu.edu: Scientific Literature Digital Library: Suchmaschine und Zitationsdatenbank
  • www.scirus.com: wissenschaftliche Suchmaschine.
  • http://www.ubka.uni-karlsruhe.de/kvvk.html: eine Suchmaschine des Karlsruhe Institute of Technology

Open-Access-Datenbanken bieten freien, also kostenlosen Zugang zu wissenschaftlichen Publikationen

  • http://arxiv.org/ und http://de.arxiv.org/: Open Access Dokumentenserver der Cornell University; alle Publikationen sind frei zugänglich.
  • http://www.doaj.org/: Directory of Open Access Journals der Universitäts-bibliothek Lund. Über 5000 Journals verschiedener Disziplinen und Sprachen. Über 2000 Journals können auf Artikel durchsucht werden.
  • www.jibs.net: teilweise kostenlose Artikel des „Journal of International Business Studies“

Kostenpflichtige Datenbanken sind zwar teilweise über Universitäten oder andere Institutionen zugänglich, grundsätzlich aber kostenpflichtig.

  • www.ieee.org: In der IEEE Xplore Digital Library kann die Datenbank zu bestimmten Themen durchsucht werden.
  • www.acm.org: Die Homepage der Association for Computing Machinery: Publikationen in der Digital Library sind kostenpflichtig.
  • www.jstor.org: Eine Datenbank, die über wissenschaftliche Journals und Texte im pdf-Format aus mehreren Disziplinen verfügt. Zugang über manche Universitäten, sonst kostenpflichtig. Es kann sowohl nach Disziplin als auch nach Thema gesucht werden.
  • http://springerlink.com/: eine weitere kostenpflichtige Datenbank

Dokumentenlieferdienste: Aufsätze und Bücher können bei Unternehmen oder Bibliotheken bestellt werden. Die Bestellung wird via E-Mail oder Webformular aufgegeben.

  • www.subito-doc.de ist eine Datenbank der deutschen Bibliotheken, die Zugriff auf nahezu alle Buch- und Zeitschriftentexte haben. Die Kosten sind moderat.

Bei jeglicher Art der Literaturbeschaffung muss kritisch vorgegangen werden. Die Literatur muss dem Niveau einer wissenschaftlichen Arbeit entsprechen. Lexika oder Nachschlagewerke genügen zum Beispiel den wissenschaftlichen Ansprüchen nicht, genauso wenig wie Zeitungsartikel oder Blogeinträge. In Hinblick auf die „Halbwertszeit des Wissens“ ist auch die Aktualität der Literatur von Bedeutung. Das heißt nicht, dass ältere Quellen nicht verwendet werden sollten, die ausschließliche Verwendung älterer Quellen sollte jedoch eher vermieden werden. Grundsätzlich gilt: je vielfältiger die Literatur (Texte aus Journals, Essays, Monographien, ältere und neuere Publikationen, deutsche sowie englische oder andere fremdsprachige Texte, …) desto besser.

Forschungspläne erstellen

Exposé als Gerüst

Ein Forschungsplan oder Exposé ist notwendig, um einen Überblick über das geplante Forschungsvorhaben zu geben. Mit dem Forschungsvorhaben werden Ziel der Forschung sowie Fragestellung vorgestellt, es ist somit das Grundgerüst für jede wissenschaftliche Arbeit. Beim Verfassen einer Abschlussarbeit dient das Exposé als roter Faden, oft ist es auch Voraussetzung, um Betreuer oder Betreuerin davon zu überzeugen, dass die Forschungsarbeit gut geplant und durchführbar ist. In manchen Fällen kann ein Exposé auch für den Erhalt eines Stipendiums notwendig sein. Jedenfalls empfiehlt es sich, für jede kleinere und größere wissenschaftliche Arbeit ein Exposé zu verfassen.
Umberto Eco beschreibt die Bedeutung des Exposés folgendermaßen:


20pt „Stellt euch vor, ihr hättet eine Reise im Auto vor, sie sollte tausend Kilometer lang sein und ihr hättet für sie eine Woche zur Verfügung. Auch wenn ihr Ferien habt, fahrt ihr nicht blindlings in die erstbeste Richtung los. Ihr überlegt euch vorher, was ihr überhaupt machen wollt. Ihr fasst etwa eine Fahrt von Mailand nach Neapel ins Auge (auf der Autostrada del Sole) mit dem einen oder anderen Abstecher, etwa nach Florenz, Siena, Arezzo, einem etwas längeren Aufenthalt in Rom und einer Besichtigung von Montecassino. Wenn ihr dann im Verlauf der Reise merkt, dass Siena mehr Zeit gekostet hat als vorgesehen, oder dass zusammen mit Siena auch San Giminiano einen Besuch wert war, lasst ihr vielleicht Montecassino ausfallen. Ja es könnte euch, einmal in Arezzo, sogar einfallen, Richtung Osten zu fahren und Urbino, Perugia, Assisi, Gubbio anzuschauen. Das heißt ihr habt – aus sehr vernünftigen Gründen – auf halber Strecke eure Reiseroute geändert. Aber es war diese Route, die ihr geändert habt, nicht irgendeine.“ (Eco 2003, 140f.)


Eine Richtungsänderung kann im Forschungsprozess notwendig und unumgehbar sein: es kann sich herausstellen, dass bestimmte Informationen doch nicht oder nur sehr schwer zugänglich sind, gewisse Fragestellungen können in Sackgassen führen, verschiedene Probleme können und werden im Laufe der Forschung immer auftreten. Es scheint oft schwierig, ohne fertige Ergebnisse und noch während des Literaturstudiums ein Exposé zu formulieren. Das Exposé soll nicht starr verfolgt werden; sobald ersichtlich wird, dass eine bestimmte Methode nicht umsetzbar oder eine gewisse Zielgruppe nicht erreichbar ist, wird sich der Plan verändern; eine Arbeitsgrundlage besteht jedoch weiterhin, und in den meisten Fällen muss nicht ganz von vorne angefangen, sondern nur eine andere Abzweigung eingeschlagen werden.
Folgende grundlegende Informationen sollten in einem Exposé behandelt werden:

  • Das Problem als Ausgangspunkt der Arbeit
  • Der Forschungsstand oder State of the Art
  • Die Fragestellung, die in der Arbeit beantwortet werden soll
  • Die Hypothese: Was soll erreicht oder widerlegt werden?
  • Der Bezug zur Theorie: Welche Erklärungsansätze werden verwendet?
  • Die Quellen: Welche Quellen liegen vor, welche müssen ermittelt werden?
  • Die vorläufige Struktur oder auch ein vorläufiges Inhaltsverzeichnis
  • Ein Zeitplan: Welche Schritte werden wann unternommen, und wann soll die Arbeit fertig sein?

Handelt es sich zum Beispiel um ein Exposé, das für einen Stipendienantrag verfasst werden muss, kommt meist noch ein Überblick über die benötigten Mittel hinzu. Ein Exposé hat einen Umfang von 5 bis 20 Seiten, je nach Umfang der geplanten Arbeit.

Inhaltsverzeichnis als Arbeitshypothese

Eine weitere Möglichkeit, ein Gerüst für die wissenschaftliche Arbeit zu erstellen, ist, am Anfang der Arbeit ein vorläufiges Inhaltsverzeichnis zu gestalten. Es muss nicht jedes kleine Unterkapitel bereits festgelegt werden, doch eine grobe Übersicht hilft meistens, den Überblick zu bewahren. Es kann zum Beispiel für jedes Kapitel eine zusammenfassende Inhaltsangabe geschrieben werden; es können auch für jedes Kapitel bestimmte Fragen formuliert werden, auf die in dem Kapitel eine Antwort gefunden werden sollen. Ein als Inhaltsverzeichnis visualisiertes Forschungsvorhaben kann Klarheit darüber verschaffen, ob das Thema konkret genug und klar formuliert ist. Vor allem muss so auch überlegt werden, was zwischen Forschungsfrage und Forschungsziel liegt. „Eine solche Arbeit ist wie eine Schachpartie, sie entwickelt sich in vielen Zügen – nur müsst ihr schon am Anfang wissen, welche Züge ihr machen müsst, um dem Gegner Schach zu bieten, sonst schafft ihr es nie.“ (Eco, 2003, S. 141)
Zusätzlich zum Inhaltsverzeichnis kann versucht werden, bereits eine Einleitung zu verfassen. Die Einleitung kann eine kommentierende Beschreibung des Inhaltsverzeichnisses sein.
Natürlich kann es sich hierbei nur um eine vorläufige Einleitung handeln; sie dient dazu, sich selbst und möglichen Beteiligten (BetreuerIn, ArbeitgeberIn, …) klar zu machen, was man machen möchte, wie man selbst formuliert, was man vorhat. Vor allem aber dient so ein frühes Verfassen einer Einleitung dazu, sich selbst zu verdeutlichen, ob man klare Vorstellungen darüber hat, was man machen möchte. Es ist immer sehr hilfreich, möglichst früh schon zu schreiben, auch wenn diese Textteile noch viele Male umgeschrieben werden. (Eco, 2003, S. 144)

Forschungsstand ermitteln

Während der Erstellung eines Forschungsplanes, welche Form dieser auch an-nehmen möge, erweitert sich die Literatur Stück für Stück, es wird klarer, was tatsächlich gebraucht wird und was überflüssig ist. Wenn schließlich klar ist, was Ziel der Arbeit ist, und über welche Zwischenschritte das Ziel erreicht werden kann, kann der Forschungsstand als Fundament für die Arbeit ermittelt werden.

Lesen

Um sich einen Überblick über den Stand der Forschung zu verschaffen, muss die gefundene Literatur ausgewertet werden. Wenn schon eine konkrete Forschungsfrage und ein Forschungsplan vorhanden sind, ist das systematische Lesen leichter. Wie im vorherigen Punkt erwähnt, kann zum Beispiel das Inhaltsverzeichnis in Fragestellungen umgewandelt werden, und jeder Text, oder jedes Buch bzw. Kapitel eines Buches kann einem vorläufigen Kapitel oder Unterkapitel des erstellten Inhaltsverzeichnisses zugeordnet werden. So bleibt immer klar, warum ein bestimmter Text gelesen wird, und wofür er später wichtig sein könnte. (Fleischer, 2008, S. 47)
Es ist außerdem wichtig, nicht nur inhaltliche Notizen zu den erarbeiteten Texten zu machen, sondern auch eigene Gedanken zu notieren. Der Sprung zur eigenen Themenerarbeitung wird dadurch erleichtert.
Wenn der Text schon während des Lesens markiert wird und mit Randbemerkungen auf Struktur und Inhalt, bzw. auch eigene Ideen, hingewiesen wird, fällt das spätere Zusammenfassen sowie auch eine erneute Lektüre leichter. Einige Methoden dabei sind:

  • Unterstreichen: möglichst verschiedenfarbig (Wichtiges, Definitionen, Namen, …)
  • Mind Mapping: während des Lesens, um einen Überblick über den Inhalt zu bekommen
  • Randbemerkungen: um z.B. inhaltliche Blöcke zu markieren, Unklarheiten, Zweifel, …

Nicht immer ist es notwendig, ganze Texte zu lesen: Vor allem bei Monographien sind es oft nur bestimmte Kapitel, die von Bedeutung sind. Es wird meistens schon durch kurzes Überfliegen des Inhaltsverzeichnisses klar, welche Kapitel oder Unterkapitel für die eigene Fragestellung relevant sein können.

Zusammenfassen von Texten

Um eine gute, das heißt leicht verständliche und doch knappe Zusammenfassung zu schreiben, ist es zunächst notwendig, den Text in verschiedenen Abschnitten aufzuschlüsseln. Wenn zu jedem Abschnitt eine zentrale Frage gefunden werden kann, entsteht eine Skizze der Gedankenführung. Diese zentrale Frage soll selbst neu formuliert und aufgeschrieben werden, wortwörtliches Abschreiben verhindert, dass wir uns die Idee selbst aneignen und verstehen. Während des Lesens sollte auch schon klar werden, an welcher Stelle der Arbeit der Text verwendet werden kann bzw. für welches Kapitel er möglicherweise aufschlussreich sein kann. Er könnte auch an einen bestimmten Zweig einer Mind Map angehängt werden, oder ganz einfach in einer Mappe nach Kapiteln geordnet werden. Im späteren Prozess des Schreibens ist diese Vorgehensweise sehr hilfreich und spart Zeit und Nerven. (Esselborn-Krumbiegel, 2004, S. 81ff.)
Die wesentlichen Punkte beim Erstellen einer Zusammenfassung sind also:

  • Übersicht verschaffen
  • Genaue bibliographische Angaben notieren
  • Absatz für Absatz zusammenfassen: Was ist das Thema des Absatzes? Was ist die Aussage dazu? Kapitelüberschriften können wörtlich übernommen werden, auch Aussagen, die später wörtlich zitiert werden sollen (hierbei müssen die Seitenabgaben notiert werden). Zusätzlich dazu werden die eigenen Gedanken und Kommentare (deutlich gekennzeichnet als eigene Ideen!) hinzugefügt.
  • Zusammenfassung der Zusammenfassungen verdichten.

State of the Art

Die Literaturrecherche und Erarbeitung dient dem Ziel, den Erkenntnisstand eines Problemfeldes zu erschließen und aufzuarbeiten. Die Verfassung eines „State of the Art“ ist sowohl bei empirischen sowie auch literaturbasierten Arbeiten ein wichtiger Bestandteil des wissenschaftlichen Arbeitens. Erst wenn das Fundament vorhanden ist, können ausgehend davon eigene Gedanken und Erkenntnisse dargelegt werden. Einen State of the Art zu verfassen heißt also (Kornmeier, 2007, S. 107):

  • Erschließen der wichtigsten Literaturquellen
  • Zusammenfassendes Wiedergeben der wichtigsten Inhalte dieser Quellen
  • Den Stand der Diskussion in diesem Feld kritisch würdigen

Der Forschungsstand gibt somit wieder, was über das Thema bereits publiziert wurde, welche Aspekte bereits behandelt wurden, und gibt auch Auskunft darüber, welche Aspekte noch nicht behandelt wurden. Er schafft einen Überblick über Kontroversen innerhalb des Themas, über verschiedene Zugänge und Blickwinkel, aus denen das Thema beleuchtet wird. Der Überblick ist bedeutsam für die Begründung des eigenen Vorhabens und steht in engem Zusammenhang mit der Formulierung der Fragestellung: Einerseits ergibt sich aus der Fragestellung der Rahmen der zu berücksichtigenden Literatur, andererseits wird erst vor dem Hintergrund des Forschungsstandes die Wichtigkeit der eigenen Fragestellung deutlich und nachvollziehbar. Weiters kann der Überblick über den Forschungsstand Auskunft darüber geben, wie tiefgehend sich der Autor bzw. die Autorin mit dem Thema befasst hat.

Schreiben

Schreibhürden abbauen

In Lektion 2 wurde bereits das Free Writing, eine sehr wirkungsvolle Methode zum Abbau von Schreibhürden, vorgestellt. Oft ist das Problem, dass der Verfasser oder die Verfasserin sofort einen perfekten Text schreiben will, es aber schwer fällt, die Gedanken zu ordnen. Wo soll ich anfangen, was bringe ich zuerst zu Papier? Ist bereits ein Inhaltsverzeichnis erstellt, kann hier beispielsweise helfen, bei einem „einfachen“ Kapitel oder auch Unterkapitel anzufangen. Es muss nicht mit dem ersten Satz begonnen werden. Wichtig ist, dass die Gedanken zu Papier gebracht werden, denn nur so können sie strukturiert werden. Es kann nicht auf Anhieb perfekt geschrieben werden, und eine erste Fassung wird immer in dem Bewusstsein geschrieben, dass es eben eine Rohfassung ist. Hilfreich ist auch, das Geschriebene nicht immer und immer wieder zu lesen, den Schreibprozess also nicht durch Korrekturen zu bremsen, sondern jede Rohfassung eines Abschnitts (Kapitels oder Unterkapitels) zu Ende zu schreiben, bevor die Korrekturen beginnen: Zuerst müssen die Gedanken, in welcher Form auch immer, aufs Papier, dann erst kann der Prozess des Verschönerns, Verbesserns und Ergänzens beginnen. In den meisten Fällen werden drei Fassungen benötigt: Rohfassung, vorläufige Fassung und Endfassung. (Franck, 2006, S. 119ff.)

Verständliche Sprache verwenden

Der Prozess des wissenschaftlichen Schreibens ist ein Kommunikationsprozess, der oder die Schreibende setzt bestimmte Strategien ein, um jenes Wissen, das transferiert werden soll, zu übertragen. Der Text verliert seine Sinnhaftigkeit, wenn Argumente und Konzepte bei Leser oder Leserin nicht ankommen. Deshalb muss eine Argumentation Schritt für Schritt gegliedert und sprachlich prägnant sein: Gedanken müssen nachvollzogen werden können. Die Herausforderung liegt somit darin, Denkschritte in Sprachschritte umzusetzen. (Esselborn-Krumbiegel, 2004, S. 152) Wenn Umberto Eco schreibt: „Ihr seid nicht Proust“ (Eco, 2003, S. 186), meint er damit vor allem, dass lange, komplizierte, verschachtelte Sätze nicht in eine wissenschaftliche Abschlussarbeit gehören. Klarheit in der Ausdrucksweise erleichtert erstens das Lesen und hilft zweitens, den Faden nicht zu verlieren. Klar ist ein Satz oder ein Text dann, wenn die Begriffe klar definiert und verständlich sind, wenn die Hauptaussage eindeutig ist und nachvollziehbar ist, warum diese Aussage wichtig ist. Kurz: Es bedarf Genauigkeit, Eindeutigkeit und Knappheit, um sprachliche Prägnanz und damit Verständnis zu erreichen:

  • Eindeutige Satzbezüge
  • Die Hauptsache im Hauptsatz
  • Überschaubare Sätze
  • Sachliche Ausdrucksweise
  • Aktiv statt Passiv

Was nicht verständlich formuliert werden kann, wurde womöglich noch nicht vollständig verstanden. Gerade deswegen ist es auch so wichtig, schon in der Phase des Zusammenfassens vom bloßen Umformulieren zu einem eigenen Zugang und so zu einer eigenen verständlichen Formulierung zu gelangen.

Struktur

Titel und Inhaltsverzeichnis

Die Struktur ist oftmals die größte Herausforderung einer wissenschaftlichen Arbeit: Welche Informationen gehören an welche Stelle, in welche Kapitel soll unterteilt werden, in welche Unterkapitel?
Die Arbeit der Strukturierung fängt schon mit dem Titel an: Vom Titel sollte auf den Inhalt geschlossen werden können, der Inhalt muss halten können, was der Titel verspricht. Deswegen sind Titel in vielen Fällen lang und kompliziert; um möglichst genau darauf hinzuweisen, welcher Inhalt erwartet werden kann. Will der Verfasser oder die Verfasserin einen kurzen und prägnanten Titel, so kann er oder sie auf einen erklärende Zusatz (Untertitel) zurückgreifen.
Das Inhaltsverzeichnis bietet nach dem Titel die konkretisierte Aufschlüsselung der einzelnen Schritte, welche die Arbeit beinhaltet. Mit einem Blick auf das Inhaltsverzeichnis sollte bereits klar sein, ob und welches Kapitel interessant sein kann, und wie die Arbeit aufgebaut ist. Für die Leserin oder den Leser ist das Inhaltsverzeichnis die Orientierungshilfe für den Text. Als Beispiel kann das Inhaltsverzeichnis dieses Studienheftes herangezogen werden: Der Prozess des Schreibens einer wissenschaftlichen Arbeit soll möglichst chronologisch wiedergegeben werden. Neben der chronologischen gibt es auch andere Arten der Gliederung: die Gliederung nach Konzepten, Theorien, nach zentralen Merkmalen, etc. Wichtig ist, dass die Gliederung nachvollziehbar ist (Warum wird das Kapitel „Literaturrecherche“ vor das Kapitel „Lesen und Exzerpieren“ gereiht?). Außerdem trägt es zur Übersichtlichkeit bei, wenn die Gliederung ausgewogen ist, die Unterkapitel also relativ gleichmäßig verteilt sind, und nicht zu viele Unterkapitel eingefügt werden. Ist das nicht zu vermeiden, kann einem Inhaltsverzeichnis eine Inhaltsübersicht vorangestellt werden, in der die Unterkapitel nicht aufscheinen. (Franck, 2006, S. 138)

Einleitung

Die Einleitung ist die offizielle Einladung zum Lesen der Arbeit. Nachdem durch Titel und Inhaltsverzeichnis ein Überblick geschaffen wurde, vertieft die Einleitung das Verständnis über das Ziel und die Methoden der vorliegenden wissen-schaftlichen Arbeit. Die Einleitung soll verdeutlichen:

  • welches Problem bzw. welche Fragestellung den Ausgangspunkt bildet,
  • warum dieses Problem relevant ist,
  • wie die Arbeit begrenzt ist und warum,
  • welcher methodische Zugang zum Ziel führen soll und
  • wie die Arbeit aufgebaut ist.

Auch die eigene Motivation zur Bearbeitung der Fragestellung kann in der Einleitung vorkommen. Es ist aber wichtig zu beachten, dass die Einleitung kein Vorwort ist. Aussagen, die nicht unmittelbar zum Thema gehören (Danksagungen etc.) sollten nicht in die Einleitung geschrieben werden. (Franck, 2006, S. 142ff.), (Esselborn-Krumbiegel, 2004, S. 132ff.)

Hauptteil

Der Hauptteil einer wissenschaftlichen Arbeit ist jener Teil der, in Kapitel unterteilt, den Weg der Beantwortung der Fragestellung beschreibt. Die Methode wird erklärt, die grundlegenden Theorien und Begriffe definiert und dargestellt, der Stand der Forschung umrissen und schließlich die eigenen Ergebnisse (gewonnen durch Literaturstudium, empirische Forschung, …) formuliert. Der Hauptteil ist also die Nachzeichnung der einzelnen Arbeitsschritte, die notwendig waren, um zu dem angestrebten Ergebnis zu gelangen.
Hierbei ist es wichtig, dass jedes Kapitel und Unterkapitel ebenfalls gut strukturiert und in sich logisch und nachvollziehbar ist. Es muss immer klar sein, welchen Bezug ein Kapitel zur Fragestellung hat (Der rote Faden muss immer erkennbar bleiben), was genau bearbeitet wird und wie das Kapitel aufgebaut ist. Hilfreich sind auch kurze Zusammenfassungen nach jedem Kapitel, sowie gedankliche Überleitungen zum nächsten.

Schluss

Für den Schlussteil wissenschaftlicher Arbeiten gibt es kaum verbindliche Regeln. Grundsätzlich sollte im Schlussteil eine Zusammenfassung der Ergebnisse formuliert werden, in manchen Fällen wird das Kapitel auch mit „Zusammenfassung“ oder „Summary“ betitelt. Es soll nicht noch einmal die ganze Arbeit in Kurzform dargestellt werden, sondern nur eine eher knappe Skizze der Ergebnisse. Es ist sinnvoll, zusätzlich dazu einen Forschungsausblick in das Schlusskapitel einzu¬bauen. Der Forschungsausblick soll andeuten, welche weiterführenden Fragen durch die vorgelegte Arbeit entstehen, wobei klar ist, dass diese weiterführenden Fragen im Rahmen der eigenen Arbeit nicht bearbeitet werden können. Es empfiehlt sich, einen Bogen von der Einleitung zum Schlussteil zu spannen, und zum Beispiel in der Einleitung einen möglichen Nutzen der Ergebnisse anzudeuten, der dann im Schlussteil skizziert wird. (Esselborn-Krumbiegel, 2004, S. 142ff.)

Verzeichnisse

  • Das Literaturverzeichnis wird in Kapitel 3.8 genauer erklärt. Es ist ein Verzeichnis der im Text zitierten Literatur.
  • Wenn Bilder, Tabellen oder andere Grafiken verwendet werden, sollte ein Abbildungsverzeichnis erstellt werden. Es ist eine nummerierte Übersicht aller Abbildungen mit den entsprechenden Namen und Seitenzahlen.
  • In manchen Fällen wird ein Anhang benötigt, um etwaige Daten, die zum Verständnis der Arbeit notwendig sind, anzugeben (z.B. Transkripte von Interviews).

Zitieren

Zitierregeln sind weder innerhalb einer Disziplin noch disziplinenübergreifend einheitlich. Es gibt verschiedene Formen und Richtlinien, an die man sich halten muss. Im Rahmen des Studiums wird das möglicherweise eine andere Zitierweise sein, als von manchen Journals oder Herausgebern von Büchern verlangt wird. Grundsätzlich ist wichtig, dass die Zitierweise in einem Text einheitlich ist, der Autor oder die Autorin also nicht verschiedene Zitierweisen verwendet. Ob ein Zitat in einer Fußnote, wie in den folgenden Beispielen, oder direkt im Text angegeben wird, ist weniger wichtig, als dass zwischen direkten und indirekten Zitaten unterschieden wird.

Direkte Zitate

Das direkte Zitat wird auch wörtliches Zitat genannt. Von einem direkten Zitat spricht man, wenn ein Ausschnitt aus einem fremden Text wortwörtlich, also buchstabengetreu übernommen wird. Direkte Zitate werden unter Anführungsstriche gesetzt. Dahinter werden der Autor bzw. die Autorin, das Erscheinungsjahr und die Seite angeführt. Es muss genau nachvollziehbar und überprüfbar sein, woher die Textstelle entnommen wurde!

Beispiel für ein direktes Zitat:

20pt„Das Schöne am wissenschaftlichen Vorgehen ist, daß es dafür sorgt, daß andere nie Zeit verlieren: Auch im Kielwasser einer wissenschaftlichen Hypothese zu arbeiten, um dann festzustellen, daß man sie widerlegen muss, bedeutet, etwas Nützliches dank der Anregung einer anderen getan zu haben.“ (Eco, 2003, S. 46)


Direkte Zitate in einer wissenschaftlichen Arbeit zu verwenden, ist nicht unbedingt notwendig. Sie sollten auch nicht zu lang ausfallen, und nur dann verwendet werden, wenn der Verfasser oder die Verfasserin das Spezifische einer Text-passage nur mit den Originalworten wiedergeben kann.
Dabei muss auf folgende Sonderformen geachtet werden (Kornmeier, 2007, S. 123f.):

  • Sollte eine Arbeit längere Zitate verlangen, werden diese üblicherweise eingerückt und in kleinerer Schrift wiedergegeben.
  • Wenn Zitate in einer Fremdsprache verwendet werden, die nicht Englisch oder Französisch ist, sollten sie übersetzt werden und sowohl die originale als auch die übersetzte Version angegeben werden.
  • Das Zitat muss genau so übernommen werden, wie der Verfasser bzw. die Verfasserin es im Originaltext vorfindet. Das betrifft die Rechtschreibung, die Zeichensetzung und Hervorhebung, sowie auch Fehler. Wenn ein Fehler erkannt wird, sollte die Stelle am Ende mit sic! gekennzeichnet werden. Damit wird klargestellt, dass der Text tatsächlich genauso in der Original¬quelle steht:

„Alle Feler sic! müssen originalgetreu übernommen werden“

  • Jegliche Abweichung von der Originalquelle wird mit einer eckigen Klammer gekennzeichnet. Das ist zum Beispiel notwendig, wenn Hervorhebungen durch den Autor nicht übernommen werden: Herv. Im Original oder eigene Hervorhebungen hinzugefügt werden: Herv. durch den Verfasser:

Wenn etwas verändert Herv. durch die Verfasserin wird, muss das gekennzeichnet werden“.

  • Die eckige Klammer wird auch benützt, wenn innerhalb eines Zitats Text weggelassen wird, so genannte Auslassungen: . für ein Wort, und ... für mehrere Worte:

„In diesem Satz fehlt ein . Wort“.

  • Kommt innerhalb des wörtlichen Zitats im Originaltext auch ein wörtliches Zitat vor; also ein Zitat im Zitat, ist das Zitat im Zitat zwischen einfache Apostrophe zu setzen:

„Der zitierte Satz bezieht sich ’wieder auf einen zitierten Satz’ und benötigt daher verschiedene Kennzeichnungen.“

Indirekte Zitate

Das indirekte Zitat wird auch sinngemäßes Zitat genannt. Der Text wird also sinngemäß, aber mit eigenen Worten wiedergegeben, er wird paraphrasiert. Man übernimmt Gedanken und Argumentationen anderer, lehnt sich an den Aus-führungen anderer an. Es soll nicht bloß darum gehen, einen schon vorhandenen Text umzuformulieren, der Inhalt sollte in eigenen Worten wiedergegeben werden. Beim indirekten Zitat werden keine Anführungszeichen verwendet.
Beispiel für ein indirektes Zitat:
Das Thema einer wissenschaftlichen Arbeit ist oftmals weniger wichtig als der Prozess der methodischen Erarbeitung und Darlegung dieses Themas. Beim Verfassen einer wissenschaftlichen Arbeit wird das Gedächtnis trainiert, Gedanken werden geordnet und ein Sachverhalt wird so wiedergegeben, dass er allgemein verständlich ist. Diese Fähigkeit Informationen systematisch zu ordnen, zu analysieren und darzustellen wird dem Verfasser oder der Verfasserin wahrscheinlich mehr nützen als die Abschlussarbeit als solche. (Eco, 2003, S. 12f.)

Sekundärzitate

In manchen Fällen ist es notwendig, aus einer bestimmten Quelle ein Zitat zu zitieren, das heißt eine Äußerung zu übernehmen, die schon der Autor oder die Autorin der verwendeten Quelle zitiert hat. Zwar ist ein Zitat der Originalquelle immer zu bevorzugen, es kann aber sein, dass die Quelle nicht zugänglich ist. In so einem Fall wird mit Sekundärzitaten gearbeitet. Ein Sekundärzitat kann ein direktes sowie ein indirektes Zitat sein.

Zum Beispiel findet sich bei Kornmeier (2007) folgendes Zitat:
„Diese Hinweise zum Umgang mit wörtlichen Zitaten waren keineswegs überflüssig“ (Kaiser, 2005, S. 373)
Die Übernahme des Zitats, wenn die Originalquelle, also Kaiser (2005), nicht vorliegt, müsste so aussehen:
„Diese Hinweise zum Umgang mit wörtlichen Zitaten waren keineswegs überflüssig“ (Kaiser, 2005, S. 373, zitiert in Kornmeier, 2007, S. 123)


Übersicht und Ergänzung

Folgende Ergänzungen sind zu beachten:

  • Bei Autor*ingemeinschaften, das heißt wenn mehr als ein Autor oder mehr als eine Autorin an der Produktion eines Textes beteiligt waren, genügt es im Text (nicht aber im Literaturverzeichnis) einen Verfasser oder eine Verfasserin mit dem Zusatz et.al. anzugeben:

(Musterautorin et.al., 2010, S. 100)

  • Bezieht sich ein Zitat auf zwei aufeinanderfolgende Textseiten, so wird die Abkürzung f. verwendet:

(Musterautor, 2010, S. 22f.)

  • Bezieht sich ein Zitat auf mehr als zwei Seiten, wird das Kürzel ff. verwendet.

(Musterautorin, 2010, S. 114ff.)

  • Bei Internetquellen, die keine Angabe der Seitenzahlen haben, genügt es AutorIn und Jahr zu nennen:

(Musterautor, 2010)

Zitierweisen und Kürzel
Zitierweise/Kürzel Erläuterung
(Eco, 2003, S. 45) direktes Zitat Bezug: eine bestimmte Seite
(Franck, 2006, S 117f.) indirektes Zitat Bezug: zwei Seiten
(Esselborn-Krumbiegel, 2004, S. 37ff.) indirektes Zitat Bezug: mehr als zwei Seiten
(Eco, 2003, S. 45ff.); (Franck, 2006, S. 117f.) mehrere indirekte Zitate Bezug: jeweils mehr als zwei Seiten
(Booth et.al., 1995, S. 20) indirektes Zitat, mehr als 2 Autor*innen
(Kaiser, 2005, S. 373, zitiert in Kornmeier, 2007 S.123) „zitiert nach“: direktes Sekundärzitat: Die Originalquelle ist nicht verfügbar.
(Kaiser, 2005) Internetquelle ohne Seitenangabe
sic! Hinweis auf Fehler im Originaltext
... oder . Hinweis auf Auslassung

Literaturverzeichnis

Im Literaturverzeichnis müssen genau jene Bücher, Zeitschriften und andere Quellen stehen, die im Text zitiert werden; nicht mehr und nicht weniger. Durch die Angaben im Literaturverzeichnis muss genau nachvollziehbar sein, um welches Buch oder zum Beispiel welche Ausgabe eines Journals es sich handelt. Die Nachvollziehbarkeit ist auch hier der Grund. Es gibt Literaturerfassungssoftware (z.B. Endnote, papers.app, BibTeX), die das Erstellen von Literaturverzeichnissen sowie das Sammeln von Literatur erleichtern. Ohne ein solches Programm ist es am einfachsten, eine einspaltige Tabelle anzulegen, die dann alphabetisch geordnet werden kann. Innerhalb dieser Tabellenzeile enthält die erste Zeile den Namen des Autors und das Jahr der Veröffentlichung. Beim Verfassen des Literaturverzeichnisses muss vor allem auf Richtigkeit, Vollständigkeit, Einheitlichkeit und Übersichtlichkeit geachtet werden.

Beispiel eines Literaturverzeichnisses
Ebster, Claus / Stelzer, Lieselotte. (2002) Wissenschaftliches Arbeiten für Wirtschafts- und Sozialwissenschaftler. Wien: WUV Universitätsverlag.
Eco, Umberto. (1977/2003). Wie man eine wissenschaftliche Abschlussarbeit schreibt. Doktor-, Diplom- und Magisterarbeit in den Geistes- und Sozialwissenschaften. (10. Aufl.) Heidelberg: C.F. Müller Verlag.
Greiffenberg, Steffen. (2003). Methoden als Theorien der Wirtschaftsinformatik. In: Uhr, Wolfgang, Esswein, Werner & Schoop, Eric (Hrsg.): Wirtschaftsinformatik 2003: Medien – Märkte – Mobilität, 2 Bde. Heidelberg: Physica Verlag.
Kornmeier, Martin. (2007). Wissenschaftstheorie und wissenschaftliches Arbeiten – Eine Einführung für Wirtschaftswissenschaftler. Heidelberg: Physica Verlag.
Schütz, Gudrun. (2009). Preisstrategien von Internethändlern und deren technische Umsetzung. In: Bayreuther Arbeitspapiere für Wirtschaftsinformatik 40/2009. S. 188– 198.
Daraus ergeben sich folgende Richtlinien (Kornmeier, 2007, S. 127f.):

  • Zu nennen sind: Nachname, Vorname: Titel, Untertitel, Jahr und Auflage, Verlag, Erscheinungsort, Erscheinungsjahr.
  • Das Literaturverzeichnis ist entweder alphabetisch nach Familiennamen der Autor*innen oder in Order of appearance zu ordnen.
  • Akademische Grade werden nicht genannt.
  • Nachnamen und Vornamen müssen immer ausgeschrieben werden.
  • Mehrere Autor*innen werden durch / oder ; getrennt. Es werden alle Autor*innen angeführt.
  • Bei Texten, die in Journals oder Sammelwerken stehen, ist zusätzlich und eingeleitet durch in: der Titel der Zeitschrift, die Herausgeber und die Seitenzahlen anzugeben.
  • Deutsche Quellen werden auf Deutsch angegeben, englische Quellen auf Englisch
  • Jegliche Abkürzungen sollten einheitlich verwendet werden. (usw., z.B., Frankfurt/Oder, …)

Abstract

Vor allem in wissenschaftlichen Fachzeitschriften, aber auch bei Diplomarbeiten und Dissertationen muss der Arbeit ein Abstract vorangestellt werden, in dem ein kurzer Überblick über den Inhalt des Textes gegeben wird. Der oder die Lesende soll in kurzer Zeit entscheiden können, ob der Inhalt der wissenschaftlichen Arbeit für ihn oder sie interessant ist. Bei Online-Journals muss beispielsweise nur durch Lesen des Abstracts entschieden werden, ob der Text gekauft werden soll oder nicht. In möglichst wenigen Details und mit ca. 200 bis 250 Wörtern sollten folglich die wesentlichen Aspekte der Arbeit vorgestellt werden; das Ausgangsproblem, die Methoden und die Ergebnisse bzw. Schlussfolgerungen.
Als Beispiel zwei Abstracts aus der Fachzeitschrift WIRTSCHAFTSINFORMATIK:
Titel: Wirtschaftlichkeitsanalyse für die Auswahl, die Migration und den Betrieb eines Campus-Management-Systems
Autor(en): Dipl.-Ök. Jon Sprenger/Dipl.-Ök. Marc Klages/Prof. Dr.Michael H. Breitner
Quelle: WIRTSCHAFTSINFORMATIK Ausgabe Nr.: 2010-04
Steigende Studierendenzahlen sowie organisatorische und technische Anforderungen führen zu vielfältigen Herausforderungen an Hochschulen.
Ein integriertes Campus-Management-System stellt hierbei als unterstützendes Informationssystem für die Studierendenverwaltung eine mögliche Teillösung dar. Um wirtschaftlich zu agieren, ist eine Wirtschaftlichkeitsanalyse der in Betracht kommenden Alternativsysteme erforderlich. Das dargestellte, praxisorientierte Vorgehensmodell ermöglicht eine Wirtschaftlichkeitsanalyse für die Auswahl, die Migration und den Betrieb eines Campus-Management-Systems in zehn Schritten. Schwierigkeiten der Kosten- und Nutzenzuordnung werden mittels eines prozessorientierten Vorgehens adressiert. Die Vorgehensschritte, verdeutlicht anhand einer Szenarienanalyse mit zwei großen deutschen Hochschulen, zeigen, dass der Einsatz eines integrierten Campus-Management-Systems zu Kosteneinsparungen führt. Das Vorgehensmodell ermöglicht vergleichende Berechnungen, anhand derer auch die monetären Unterschiede zwischen den Alternativsystemen aufgezeigt werden können. Damit liefert es eine Entscheidungsunterstützung für die Wahl des hochschulspezifisch bestgeeigneten Campus-Management-Systems.
Titel: Ökonomische Bewertung und Optimierung des Automatisierungsgrades von Versicherungsprozessen
Autor(en): Dr. Kathrin S. Braunwarth, B. Sc. Matthias Kaiser, B. Sc. Anna-Luisa Müller
Quelle: WIRTSCHAFTSINFORMATIK Ausgabe Nr.: 2010-01
Im Beitrag wird am Beispiel von Versicherungsprozessen untersucht, ob die Automatisierung von Geschäftsprozessen ökonomisch sinnvoll ist. Dazu wird ein Ansatz zur ökonomischen Abwägung zwischen den komparativen Vorteilen automatischer und manueller Bearbeitung entwickelt. Nach wertorientierten Kriterien wird für den einzelnen Versicherungsfall die Bearbeitungsweise gewählt, die den optimalen barwertigen Cashflow generiert. Im Gegensatz zur Anwendung von starren Einzelregeln ermöglicht dieser Ansatz eine auf die Situation abgestimmte Steuerung der Bearbeitungsweise ex ante und zur Laufzeit. Kapazitätsrestriktionen werden berücksichtigt, sodass Aussagen über die optimale Ressourcenplanung und -nutzung möglich sind.
Ein Abstract ist sozusagen die „Visitenkarte“ eines Textes, er soll seinen Inhalt vorstellen. Es ist daher besonders wichtig, eine klare, knappe und präzise Sprache zu verwenden. Es ist ratsam, Abkürzungen zu vermeiden. Sollte das nicht vermeidbar sein, muss die Abkürzung bei der ersten Erwähnung unbedingt erklärt werden. Ein Abstract wird immer erst nach Vollendung der Arbeit geschrieben; beim Schreiben des Abstracts kann folgendermaßen vorgegangen werden[1]:

  • Die Fragestellung in der Einleitung markieren
  • Die verwendeten Methoden kurz zusammenfassen
  • Die Ergebnisse aus dem Hauptteil markieren und zusammenfassen
  • All diese Informationen in einem Absatz zusammenfügen
  • Überflüssiges streichen
  • Einen einleitenden Satz finden, der aber schon neue Informationen enthält
  • Überprüfen, ob die relevante Information im Abstract enthalten ist.

Mit dem Verfassen eines Abstracts ist der Prozess des Verfassens der Arbeit vollendet. Der Abstract ist das letzte, was geschrieben werden muss, in der Regel aber das erste, was gelesen wird. Je aussagekräftiger der Inhalt eines Abstracts, desto eher wird sich daher ein Leser oder eine Leserin dafür interessieren.

LaTeX

image

Die folgende kurze Vorstellung von LaTeX soll einen kleinen Einblick in die möglichen Vorteile der Verwendung dieses Programmes für die bevorstehende Abschlussarbeit bieten. Die Inhalte sowie auch die Beispiele sind aus: „Das LaTeX – Tutorium“ von Torsten Bronger, Christian Faulhammer und Mark Trettin (2005) entnommen. Für eine genaue Einführung in das Programm sind am Ende dieses Kapitels einige Quellen angegeben.

Vorteile von LaTeX

LaTeX ist ein kostenloses Textsatzsystem, das beim Verfassen wissenschaftlicher Arbeiten oft verwendet wird. LaTeX verwendet logische statt physikalische Formatierung, der Text wird somit nicht in seiner endgültigen Formatierung an¬gezeigt, das Programm funktioniert mittels Markup-Anwendungen. Diesem Konzept liegt die Idee zugrunde, dass der Verfasser oder die Verfasserin sich beim Eingeben des Textes voll auf dessen Inhalt, und nicht auf Äußerlichkeiten konzentrieren können soll. Dabei ist ein wesentlicher Grundsatz von LaTeX, dass ein Text nicht unbedingt schön, sondern vor allem gut lesbar sein soll. LaTeX erreicht im Gegensatz zu normalen Textverarbeitungen immer die maximale Ausgabequalität, es wird dabei ein Niveau erreicht, das beispielsweise von Word nicht erreicht werden kann. Das Programm gilt außerdem als sehr zuverlässig und fehlerfrei, auch bei Texten mit vielen Grafiken und Tabellen bleibt es schnell und belastbar. Folgende drei Punkte hat LaTeX den meisten anderen Programmen voraus:

  • LaTeX sucht für Abbildungen und Tabellen selbständig den besten Platz im Dokument
  • Die Erstellung eines Literaturverzeichnisses wird durch LaTeX stark vereinfacht
  • LaTeX verfügt über einen großen Formelsatz, was in jeder Disziplin von Vorteil sein kann.

Grundbegriffe und kurze Einführung

Grundsätzlich bietet TEXnicCenter die gewohnte Oberfläche von Textver-arbeitungssystemen. Als erster Versuch eines LaTeX Befehls kann Folgendes versucht werden:

image

Dann wird das Dokument abgespeichert und die Kombination Strg + F7 und F5 gedrückt. Es öffnet sich ein Fenster, in dem man den Text so sehen kann, wie er auch später aus dem Drucker kommen wird. In diesem Beispiel wäre das nur der Satz: „Dies ist mein erster Text“.
Nach Zeilen aufgeschlüsselt bedeuten die Eingaben:
Zeile 1: Die Art des Dokuments (die Dokumentklasse) wird beschrieben: Handelt es sich um ein Buch (scrbook), einen Artikel (scratcl) oder einen Brief (scrlttr2)? Meistens wird „Buch“ für alles verwendet, das aus Kapiteln besteht, und „Artikel“ für den Rest. An diesem ersten Beispiel kann der Aufbau eines LaTeX Befehls gut erklärt werden:

  • er beginnt mit einem „Backslash“  
  • es folgt der Befehl „documentclass“ für die Art des Dokuments
  • die Klammer steht für die Parameter, in diesem Fall das Kürzel „scrartcl“

Zeile 2 und 4: Die Befehle
begin und
end umschließen eine Umgebung. Die Umgebung klammert einen Bereich des Textes ein. Die Umgebung
begin und
end muss immer genau einmal vorkommen. In der Klammer steht der Umgebungsname, in diesem Fall „document“. Die document-Umgebung enthält also den ganzen Text des Dokuments. Alles, was zwischen diesen Befehlen steht, hat dieselben Eigenschaften, was zum Beispiel das Layout betrifft.
Neben diesen Grundfunktionen gibt es in LaTeX noch die
textbfPakete. Pakete sind Zusatzfunktionen für gewisse Aufgaben. Ein Beispiel dafür wäre das Paket zum Schreiben eines Lebenslaufes. Manche Pakete sind bei jeder LaTeX Installation vorhanden, andere müssen nachgeladen werden. Um ein Paket in Anspruch zu nehmen, muss folgender Befehl eingegeben werden:

image

Der Bereich, in dem man diese Pakete einfügt, befindet sich zwischen
documentclass und
begin. Dieser Bereich wird als Vorspann oder als Präambel bezeichnet. Im Vorspann werden Einstellungen vorgenommen, die für das gesamte Dokument gültig sind; darunter fällt auch das Paket. Ein komplettes, syntaktisch korrektes LaTeX Dokument würde also so aussehen:

image

Es können also mehrere Pakete verwendet werden, zum Beispiel ein Paket für Deutsch, für die neue Rechtschreibung, für bestimmte Schriftarten und Schriftgrößen, etc. Für alle Eingaben gilt:

  • Im Ausdruck fügt LaTeX immer den korrekten Zwischenraum ein, egal wie viele Leerschritte eingegeben wurden.
  • Absätze werden durch Leerzeilen voneinander getrennt, die Anzahl ist unwichtig.
  • Der Zeilenumbruch wird erst für den Ausdruck von LaTeX verwendet; die Aufteilung im Editor ist also unwichtig.
  • Prozentzeichen %, so wie alles, was hinter diesen Zeichen steht, werden von LaTeX nicht ausgedruckt. Für ein richtiges Prozentzeichen muss % eingegeben werden.

Gliederung und Formatierung

Jegliche Formatierung und Gliederung, wie zum Beispiel Überschriften, Kapitel, Listen und Aufzählungen können mittels Befehlen eingegeben werden. Hier nur ein paar Beispiele, wie so etwas aussehen könnte. Eine bequemere Variante, die das Programm anbietet, ist mit der Kombination „Alt“ + „Ctrl“ + „s“ ein Fenster zu öffnen, in das eingefügt werden kann, welche Art von Überschrift man einfügen möchte und wie diese lautet.
Gliederung
Auch die verschiedenartigen Überschriften werden mittels bestimmter Befehle zu solchen ernannt (siehe Beispiele).

image

Wenn der Befehl\tableofcontents eingegeben wird, druckt LaTeX ein Inhaltsverzeichnis.
Listen werden in LaTeX als Umgebungen eingegeben; es gibt normale Listen, Aufzählungen (nummerierte Listen) sowie Begriffserklärungen; hier ein Beispiel für eine Normale Liste, die durch den Befehl \item erstellt wird:

image

Formatierung
Für Hervorhebungen werden folgende Befehle verwendet:

image

Als Befehl innerhalb eines Textes im Editor würde das so aussehen: Der Beispielsatz lautet: „Wenn man einen Satz besonders betonen möchte, dann druckt man ihn am besten kursiv“. Das Wort, das kursiv erscheinen soll, wird in die geschwungene Klammer geschrieben:

image

Auch für die verschiedenen Schriftarten sowie das Einfügen von Grafiken, Fußnoten etc. und die Verwendung verschiedener Sprachen werden bestimmte Befehle oder auch Pakete verwendet.

Weiterführende Quellen

Für eine umfassende Einführung und genaue Anleitungen für das Programm, gibt es verschiedene weiterführende Quellen, wie zum Beispiel:
Online:

Forschung in Österreich

Institutionen der Forschung in Österreich

  • Universitäten
  • außeruniversitäre Forschungseinrichtungen
    • der Wissenschaften
    • COMET-Kompetenzzentren
    • ÖFAI, Seibersdorf/ARCS, Joanneum
  • Wirtschaft

Forschungsförderung

  • Erstmittel, Zweitmittel, Drittmittel
  • Förderungseinrichtungen