Netz-Werk-Zeuge: R-Programme zur
Analyse semantischer Strukturdaten
Version 2.95

Fortschreibung eines Stichwort-Beitrags zur
Methodologie des Forschungsprogramms `Subjektive Theorien`

Hartmut-A. Oldenbürger, Universität Göttingen

Spezielles Ziel dieses Beitrags:
Zwischenbericht über Konzept und Status des Projekts mit bisher 86 (vorher 62) vorliegenden Programmen; dies ist die zweite Fortschreibung eines Textes, Version 1.93 (Köln, 2005), nach Version 1.84 (Ludwigsburg, 2005).

Zielbezogener Begründungszusammenhang:

Theoretischer Begründungszusammenhang - FST (GROEBEN & SCHEELE et al.) + :
vgl. BECKER, OLDENBÜRGER, PIEHL (1987), OLDENBÜRGER (2002), MUTZECK, SCHLEE & WAHL (2002), OLDENBÜRGER et al. (2003).

Methodologischer Hintergrund:

inhaltsbezogene Erhebung und Analyse:

Datenstrukturen: Konzept der Datenanalyse: Konzept der Datenverarbeitung:

Die Netz-Werk-Zeuge (NWZ): R-Programme in Modulen bzw. Packages:

ContAna.R - Inhaltsanalyse

Quellen: mündliche/schriftliche Sprachproduktion, audiovisuelle Medien, Datenbanken, WWW
Datenformat: Fliesstext in plain Ascii mit '()', Kodierung von Konzepten, Relationen, etc. in '[ ]', XML-Strukturierung durch '< >' mit Metadaten, ähnlich einem Inhaltsverzeichnis (Baum).
Datenbeispiel: BAUM (2002)
 <?xml version="1.0"?>
 <Klasse Schulform="WG" Stufe="13">
 <Person Nr="01" Geschl="w" Alter="19" Abschl="RS" dAusb="Abi" De="J">
 A: Freund B: Lehrer
 <Frage_1>
 <Privat>
 Ich würde diese Gespräche [K Gespräche mit Partner/in] als sehr
 persönlich intim [K persönlich] bezeichnen [R hat/haben das Merkmal],
 in einer umgangssprachlichen Art Weise [K umgangssprachlich]. Sie
 [K Gespräche mit Partner/in] sind [R hat/haben das Merkmal] auch offen
 [K offen]. </Privat>
 <SchBet>
 Diese Gespräche [K Gespräche mit Lehrer/in] enthalten [R hat/haben
 zum Thema] wissenschaftlichere [K wissenschaftlich] oder auch
 oberflächlichere Themen [K oberflächlich]. Die Sprache [K Sprache]
 ist [R hat/haben das Merkmal] sachlicher [K sachliche Sprache/Ebene] und
 gewählter [K gewählte Sprache]
 </SchBet> </Frage_1>
 <Frage_2>
 <Privat> ... </Privat>
 <SchBet> ... </SchBet> </Frage_2>
 ....
 <Frage_5>
 <Privat> ... </Privat>
 <SchBet> ... </SchBet> </Frage_5>
 </Person>
 <Person Nr="02" Geschl="m" Alter="20" Abschl="RS" dAusb="Abi" De="J">
 ....
 </Person>
 ....
 </Klasse>
 <Klasse Schulform="BFS"> ...
 ....
 ....
 </Klasse>
 
Programme:
InfoCA <- function()            # InfoCA gibt die folgende Kurzinformation aus
{
# Einlesen der Daten und ihre Aenderung/Pflege:
# --------------------------------------------

# LiesText <- function(file="file", sep=" ")
# Einlesen von (kodierten) Texten
# Umweg, da 'scan' nicht funktioniert.  M$Word verschrottet!? (Mail)
# Vorschlag P. Preiss: andere Separatoren nutzen

# TrennVZ <- function(strv, rxpat="\\[")
# Trenne vor Zeichen mittels regulaerer Ausdruecke, z.B. vor Klammern "<", "["
#                    oder auch "\t" ?!

# TrennNZ <- function(strv, rxpat="\\]")
# Trenne nach Zeichen mittels regulaerer Ausdruecke, z.B. nach Klammern ">", "]"
#                    oder auch "\t" ?!

# ZzCodes <- function(strv, bstr="\\[", estr="\\]", zeig=FALSE)
# Zusammenziehen von Partialstrings variabler Anzahl zu Codes gem� Beginn- und
# Endestrings mit einfacher Fehlerkontrolle: kein Anf-Anf, kein Ende-Ende

# TrimL <- function(strv, muell=c("-","+","=",",",":",";",".","!","?"))
# Beseitigung von Sonderzeichen "von links", z.B. auch Tabulatoren

# TrimR <- function(strv, muell=c("-","+","=",",",":",";",".","!","?"))
# Beseitigung von Sonderzeichen "von rechts", z.B. auch Tabulatoren

# FilesauT <- function(file="file")
# Modul: Vom File zum sauberen Text - Fasst nur hiesige Funktionen zusammen.

# Loesch <- function(strv, rav=c("\\["))
# Entfernen der Strings/Woerter, auf die wahlfreie regulaere Ausdruecke
# zutreffen, z.B. fuer Listen von(Kodierungen,) Stopwoertern, Muell

# FindErs <- function(strv, findrxp, erstr, anh=TRUE)
# Finden und Ersetzen von Ketten von Strings: Anhaengen, Aendern, Loeschen

# KomForm <- function(strv, bi=1, ei=length(strv), zeil=80)
# Komfortabel kompaktes Formatieren eines Stringvektors (inkl. XML)

# Auswertung (ueber Stringvektoren - ohne XML)
# -------------------------------------------

# KWiC <- function(strv, rxpat="", ku=7)
# Jenseits KWiC = 'Keyword in Context' durch 'regulaere Ausdruecke' !
#  Klassisch --> Oxford Concordance Program, nun z.B. Wortende, Wortstaemme !!

# HitList <- function(strv, rxpat="")
# Hitliste ausgewaehlter Strings durch regulaere Ausdruecke
# (ohne XML-Steuerung - geschachtelter R-Einzeiler :-)  --> XBBlWl (hier)

# KoLokO <- function(strv, order=2)
# Auszaehlen von Kolokationen, direkter Nachbarschaften von Strings
# beliebiger Ordnung

# Auswertung mit XML-bedingtem Zugriff und XML-Info = Blockbezug
# --------------------------------------------------------------

# XmlGpBi <- function(strv, kondi="", ntreff, verbose=FALSE)
# XML-Gueltigkeitspruefung und Blockherstellung - Zweiter Versuch = Version 0.11

# XBBlWl <- function(strv, bla, ble, rxpat="")
# Zu XML bedingten Textbloecken: Wortlisten mit Auszaehlungen
# Hitliste durch regulaere Ausdruecke ausgewaehlter Strings

# TBl2Dist <- function(strv, bla, ble, pat="\\[K", dwahl, prumf=TRUE)
# Von Textbloecken zur Distanzmatrix zwischen ihnen

# ZStrB2M <- function(strv, bla, ble, rav)
# Zaehlen von Strings in Bloecken (Text/Kodes/XML) gemaess regulaerer Ausdruecke
# ---> Matrix (Block X Strings)

# VBl2Vek <- function(bla, ble)
# Verketten von Bloecken von Indices zu einem Vektor
}
Verfügbar über:  http://www.liteline.de/~holdenb/fst/nwz/R-PHP/ContAna.R
Zu tun: z.B.:
UmorgXML - Umorganisieren ganzer Files mittels XML
AutomaK - Ansatz zur Automatisierung der Kodierung, mit Leo Gürtler
MKWiXML - Multiiple Keywords in Context mit XML und regulären Ausdrücken
AnaMeta.R - Erweiterungs-/Zusatzmodul zur Analyse von Metadaten


UniRel.R - Uni-relationale Strukturierungen - Graphen

"Erhebung": Untermengenentnahme OLDENBÜRGER (1981b); 'Object Sorting Task' SCOTT (1962); 'Free Card Sorting' MILLER (1969); 'Unlabeled Trees' FILLENBAUM/RAPAPORT (1971); MindMaps (BUZAN 1971), besser nicht!; unirelationale Netzwerkbildung OLDENBÜRGER (1981a); Kausaldiagramme FUNKE (1992)
Datenformate:
XML + zeilenorientiert: fixiertes Format = spaltentrue; freies Format + csv = 'comma seperated values'
XML-Datenbeispiel SIEBENHUENER (2007)
<?xml version="1.0"?>

<Zeitpunkt="pre">
<Schule="Soltau">

<Person Nr="S01">
0107 0114 0118 0212 0213 0311 0415 0416 0418 0506 0517 0709 0809 0918 1016 1112
1214 1215 1516 1618 1718
</Person>

<Person Nr="S02">
0103 0104 0105 0106 0107 0117 0118 0204 0410 0415 0508 0512 0911 0912 0913 1213
1214 1617 1618
</Person>
.
.
<Person Nr="S64">
0107 0206 0407 0506 0517 0809 0818 1314 1315
</Person>

<Person Nr="S65">
0105 0204 0309 0412 0416 0509 0518 0610 0617 0709 0811 1112 1317 1417 1517
</Person>

</Schule>

<Schule="Goettingen">

<Person Nr="g01">
 0107 0108 0109 0117 0124 0217 0307 0410 0414 0417 0511 0512 0516 0517 0813 1315
 1718
</Person>
.
.
.
<Person Nr="h61">
0103 0107 0114 0204 0413 0415 0418 0507 0508 0516 0609 0610 0612 1112 1214 1417
</Person>
</Schule>
</Zeitpunkt>
Programme:
InfoUniR <- function()   # InfoUniR gibt die folgende Kurzinformation aus:
{
# Einlesen der Daten -> Stringvektor:
# -----------------------------------
# LiesDStr <- function(file="file")
# Einlesen von Datenstrings - zu einfach, besser FilesauT - Nur Hinweis 

# XML-Daten sollten mit den Programmen aus ContAna.R eingelesen und gepflegt
# werden: FilesauT, (ZzCodes,) XmlGpBi, etc.

# Transformationen: XML-Stringvektor -> Beob.-Wdhl x QKonzept x ZKonzept = BwKK
# -----------------------------------------------------------------------------
# Diese Programme setzen das Bekanntsein von Blockgrenzen voraus: z.B. XmlGpBi

# NDatHitli <- function(strv, bla, ble)
# Erstellt Hitliste von Blockinhalten

# AuszKenn <- function(strv, bla, ble, stra=c(1,3), stre=c(2,4))
# Fuer umschriebene Bloecke eines Stringvectors werden mehrere Substrings 
# gesammelt und tabelliert. - Liefert Table-Infos zu 'kenn' fuer NDat2BwKK
# Fuer uniq=FALSE als Token, fuer uniq=TRUE als Types (hoechstens 1 pro Bw)

# NDat2BwKK <- function(strv, bla, ble, kenn, quel=c(1,2), ziel=c(3,4), sym=F)
# Daten unirelationaler Netze als Mengen von Paaren werden in einen Quader
# ueberfuehrt, der dann aus Scheiben i von Adjazenzmatrizen j x k besteht, der
# 0,1 indiziert, ob die Beobachtungswiederholung i (z.B. Person) ein Paar
# von j nach k enthaelt(=1), oder nicht(=0).

# Auswertung:
# -----------

# BwKKSRel <- function(bwkk, sym=FALSE, nzuf=1000)
# Berechnet fuer den Quader mehrerer Adjazenzmatrizen die Summenmatrix, ihre
# Reliabilitaet durch Cronbachs Alpha und beurteilt dies zufallskritisch durch
# nzuf(>0) symmetrische Permutationen. Dieser Test ist aequivalent zur Pruefung
# der Praegnanz(Varianz) der Summenmatrix, vgl. Oldenbuerger(1981, S.175).

# KVBwKKRT <- function(v, bwkk, nzuf=1000)
# Berechnet die (biserialen) Korrelationen zwischen einer (numerischen) 
# Variablen v und den 0/1-Variablen die das Nicht-/Vorhandensein einer
# Kante im Netz der jeweiligen Beobachtungswiederholung indizieren,
# einschliesslich Randomisierungstests der biserialen Korrelationen.

# BwKKDRCl <- function(bwkk, sym=FALSE, nzuf=1000)
# Berechnet fuer den Quader mehrerer Adjazenzmatrizen eine Matrix der Distanzen
# als Masze der absoluten oder relativen Mengendifferenzen (Restle oder
# Galanter) deren empirische Statistik(en) zur Beurteilung der Abweichung von
# der Clusterbarkeit und beurteilt diese zufallskritisch durch nzuf(>0)
# symmetrische Permutationen, vgl. Oldenbuerger(1986).

# ZshgKUmgl <- function(kantl, nuf=nrow(kantl), umf=nrow(kantl), bi=FALSE)
# Generierung aller Zusammenhangskomponenten zu _einem_ Graphen aufgrund
# einer Kantenliste, inkl. der Einschraenkung auf beliebige Umgebungen.

# ZshgBwVrt <- function(bwkk, sym=F)
# Fuer die in bwkk befindlichen Netzwerke werden jeweils alle Zusammenhangs-
# komponenten erstellt und der Groesse nach ausgezaehlt; braucht ZshgKUmgl

# Output
# ------

# BwKK2DatM <- function(bwkk, sym=F, nmink=2)
# Schreiben der nomothetisch relevanten Konzept-Konzept-Verknuepfungen (Spalten)
# ueber die Beobachtungswiederholungen (Zeilen) als Datenmatrix (erschoepfend !)

# BwKK2Dist <- function(bwkk, sym=FALSE, rel=TRUE)
# Berechnen absoluter RESTLE- oder relativer GALANTER-Mengendistanzen zwischen
# Netzen bzgl. Beobachtungswiederholungen - vektorisiert - Version 0.31
#  besp (> 0), Beseitigung spezifischer Kanten, die seltener als besp sind.
}
Verfügbar über: http://www.liteline.de/~holdenb/fst/nwz/R-PHP/UniRel.R
Zu Tun:

NWZ1.R - Multiple binäre Relationen - 'conceptual (=labeled) graphs'

Quellen: Propositionen als Konzept-Relation-Konzept-Verknüpfungen durch (a) Subjekte: Concept-Maps (falsche Bezeichnung) oder (b) Forscher: strukturelle Inhaltsanalyse (WEYMAR 1986, OLDENBÜRGER et al. 1992)
Datenformate: XML + zeilenorientiert, fix; Kennungen, z.B. Gruppe, Person, Bedingung, z.B. Zeitpunkt; Proposition: Relation, Konzept im Vorbereich, Konzept im Nachbereich

Datenbeispiel: fixiertes Format - du CARROIS (2000)

G PZ  Relation                  KonzeptV             KonzeptN  (nicht in Daten)

0022  isnf                      aufschr              SK
0022  wba                       SK                   eiFdLI
0022  igd                       eiFdLI               ErdeZ
0022  hdZ                       ErdeZ                mSbL
0022? wbeend                    mSbL                 VdeZ
0022  wbegd                     VdeZ                 aufschr
0042  heisst                    L                    idSL
0042  fz                        idSL                 Unt
0042  fz                        Unt                  SdL
0042  hzF                       SdL                  sich eiG zu m
0042  iBf                       sich eiG zu m        dzlStv
0042  hdZ                       dzlStv               EdH
0042  das heisst wiederum       EdH                  VaK
0042  hzF                     ? VaK                  LF
0042  isnf                    ? VaK                  LBdL
0042  hdZiel                    LBdL                 VdeZ
0042  kann auch fuehren         VaK                  sN
0042  ibegv                     sN                   Srg
0052  fz                        Prob                 labw
0052  fz                        labw                 Prob
0052  igd                       Prob                 LBdL
0052  weil das                  Prob                 Llng
0052  im                        Prob                 Unt
0052  hEinauf                   labw                 Unt
0052  dann folgen               labw                 sN
0052  daraus ergibt sich        labw                 Llng
Programme:
InfoNWZ1 <- function()   # InfoNWZ1 gibt die folgende Kurzinformation aus
{
# Einlesen der Daten, ihre Kontrolle und Struktur-Transformation:
# --------------------------------------------------------------

# LiesPropL <- function(file="file")
# Einlesen der Propositionsliste

# Lineal <- function(strv)
# Kontrolle der Einzelzeilen spaltentreuer Daten zum Entdecken von
# "Verruecktheiten" - fixiertes Format (wie orig. NWZ1)

# Auswahl:
# --------

# BedWahl <- function(strv, bstr, bp, bg=rep(1,length(bstr), krit=length(bstr))
# Bedingte Auswahl von Zeilen mit bestimmten Strings ab bestimmten Positionen
# ueber beliebige Gewichte ab einem Kriterium. Besser als SQL 'select if', 
# allgemeiner als orig. NWZ1 - Version 0.00

# Auswertung:
# ----------

# NWZ1 <- function(strv, ia, ie)
# Zaehlwerk fuer beliebige Kombinationen von Nominalvariablen, die als String-
# komponenten aus Datenzeilen (fixiertes Format) entnommen werden.
# Wie beim NWZ1 werden die _vorhandenen_ Konfigurationen des KFA-Wuerfels 
# gezaehlt, nicht die moeglichen (vgl. Oldenbuerger 1992).

# KreuzTab <- function(strv, ia, ie, ja, je)
# Kreuztabelliertes Zaehlwerk beliebiger Kombinationen von Nominalvariablen,
# die fuer Zeilen und Spalten _jeweils_ als beliebige(!) Kombinationen von
# Stringkomponenten aus Datenzeilen (fixiertes Format) entnommen werden.
# Erstellt eine Kreuztabellierung von Variablen"systemen". ~ NWZ1Q

# Unsich <- function(x)
# Streuungsma�fuer Nominalskalen in Bit

# BlIdent <- function(strv, ia, ie)
# Identifikation von Bloecken von Propositionen fuer Beobachtungswiederholungen
# meistens Personen, aber auch z.B. Personen unter Bedingungen/ zu Zeitpunkten

# AMengSchn <- function(strv, bla, ble, kp, kn)
# Identifikation (Exploration) der Elemente aller Durchschnitte von durch 
# bla und ble (Zeilen(bloecke)) definierten Mengen

# ZsfgMengD <- function(strv, manf, mend, kp="", kn="", midx)
# Zusammenfassung(Tabelle) mehrerer systematischer Mengendurchschnittsanalysen:
# = Qualitative Exploration nach Gruppierungs- und/oder Wiederholung(sfaktoren)

# PBl2Dist <- function(strv, bla, ble, ia, ie, drel=TRUE)
# Von Propositionsbloecken zur Distanzmatrix zwischen ihnen

# KoinProp <- function(strv, bla, ble, ia, ie, nord=2, still=TRUE)
# Koinzidenzen von Propositionen als notwendige Voraussetzung
# von Argumentationsfiguren

# Combinat <- function (n, r, v = 1:n, set = TRUE, repeats.allowed = FALSE)
# Kombinationen ohne/mit Wiederholung und ohne Beruecksichtigung der Anordnung
# Kode von 'combinations' by Gregory Warnes from GregMisc Version ~0.82

# PotenzM <- function(strv, beg=1)
# Erstellt die Potenzmenge (ohne die leere Menge) zu den Elementen von strv
# Version 0.1 - verwendet 'combinations' aus GregMisc 0.82 als Combinat

# MergeTab <- function(tab1, tab2)
# Merge Tables fasst eindimensionale Haeufigkeitstabellen, z.B. von Strings,
# zusammen, wobei die Werte zu bereinstimmenden Strings addiert werden
# Version 0.2 ReWrite getestet

# AEPotMen <- function(strt, rgx=" ", beg=1, sorti=FALSE)
# Ausz�len der Elemente der Potenzmengen zu semantischen StrukTupeln - strt
# Version 0.1 getestet
}
Verfügbar über:   http://www.liteline.de/~holdenb/fst/nwz/R-PHP/NWZ1.R
Zu tun: z.B.:
XML2Zeil, Zeil2XML - Datenkonvertierung: XML <--> fixiertes Format
KontAehn - Kontextähnlichkeit von Konzepten und Relationen, vgl. WEYMAR (1986)
MIA - Multivariate Informations-Analyse (eine alte Projektidee :-)
PropL2DM - Von der Propositionsliste zur Datenmatrix von Häufigkeiten von Stringkonfigurationen, z.B. Pers/Bed X KonzV/Rel/KonzN mit der Möglichkeit von Skalenbildungen und deren testtheoretische Evaluation


Struktup.R - Höherstellige Relationen, z.B. auch bedingt, moderiert, geschachtelt

Quellen:
Struktur-Lege-Technik (SCHEELE & GROEBEN 1984) und verschiedene verwandte Verfahren aus dem FST; inhaltsanalytische Rekonstruktionen, über elementare Propositionen 'Konzept-Relation-Konzept' hinaus, z.B. GÜRTLER (2005)
Datenformate: XML; jenseits multipler binärer Relationen: n-Tupel, beliebig geschachtelte Verknüpfungen, die (bisher) nicht überlappend, also durch Bäume darstellbar sind, vgl. GANTER & WILLE (1999), HELBIG (2001, 2007), SOWA (1999)
Datenbeispiel: GÜRTLER (2005)
<person no="1" code="MT0222" alter="16" sex="m" klasse="10" schule="1">
[S1 Humor] [bringt] [S23 Fröhlichkeit]
[S1 Humor] [geht aus von] [S11 Mensch/en]
[S1 Humor] [lockert auf] [S19 Unterrichts/Stunde]
[S22 Nonsense/ Unsinn] [kann sein] [S1 Humor]
[S26 Provokation] [unspezifische Beziehung] [S1 Humor]
[S1 Humor] [unspezifische Beziehung] [S26 Provokation]
[S1 Humor] [unspezifische Beziehung] [S21 Verschiedenheit]
[S21 Verschiedenheit] [unspezifische Beziehung] [S1 Humor]
[S12 in/ Schule] [unspezifische Beziehung] [S26 Provokation]
[S26 Provokation] [unspezifische Beziehung] [S21 Verschiedenheit]
[S23 Fröhlichkeit] [gehört in] [S12 in/ Schule]
[S19 Unterrichts/Stunde] [sollte machen] [S6 Spass]
[S2 Lehrer/in] [gestaltet] [S19 Unterrichts/Stunde]
[S2 Lehrer/in] [übt aus] [S24 Überlegenheit]
[S24 Überlegenheit] [findet statt im Kontext] [S8 in unserer/ Klasse]
[S2 Lehrer/in] [bestimmt] [S14 Unterrichtsstoff/ Thema]
[S20 Scherz/e] [ähnelt] [S6 Spass]
[S13 Laune] [gehört zu] [S6 Spass]
[S4 Witz/e witzig] [ähnelt] [S6 Spass]
</person>
....
Programme:
InfoStup <- function()   # InfoStup gibt die folgende Kurzinformation aus
{
# Einlesen
# --------
# siehe NWZ1.R

# Auswertung
# ----------
# Potenzmengenauszaehlung:
# - - - - - - - - - - - -
# Combinat <- function (n, r, v = 1:n, set = TRUE, repeats.allowed = FALSE)
# Kombinationen ohne/mit Wiederholung und ohne Beruecksichtigung der Anordnung
# Kode von 'combinations' by Gregory Warnes from GregMisc Version ~0.82

# PotenzM <- function(strv, beg=1)
# Erstellt die Potenzmenge (ohne die leere Menge) zu den Elementen von strv
# Version 0.1 - verwendet 'combinations' aus GregMisc 0.82 als Combinat

# MergeTab <- function(tab1, tab2)
# Merge Tables fasst eindimensionale H�figkeitstabellen, z.B. von Strings,
# zusammen, wobei die Werte zu bereinstimmenden Strings addiert werden
# Version 0.2 ReWrite getestet

# AEPotMen <- function(strt, rgx=" ", beg=1, sorti=FALSE)
# Auszaehlen der Elemente der Potenzmengen zu semantischen StrukTupeln - strt
# Version 0.1 getestet
}
Verfügbar über:  http://www.liteline.de/~holdenb/fst/nwz/R-PHP/Struktup.R
Zu tun: z.B.:
- Kurzfristig: Potenzmengenauszählung lauffähig machen, vgl. GÜRTLER (2005)
- Auszählung von Zusammenhangskomponenten ist im Test
- Nicht trivial: Überführung in Datenmatrizen mit Omnibus-Test
- Proximity-Masze und Matrizen zwischen Mengensystemen bzw. Zusammenhangskomponenten


Überbrückt: DataMat.R - Standard-Datenmatrix

Datenformate: Alle, die R lesen kann.
Programme:
InfoDataM <- function()  # InfoDatam gibt die folgende Kurzinformation aus
{
# OptSchnV <- function(v, plot=TRUE)
# Ermittlung des optimalen Schnitts durch eine Variable durch Berechnung der
# biserialen Korrelationen der Variablen mit allen 0/1-Aufteilungen

# Statistische Evaluation von 0/1-Matrizwn - stochastische Unabhaengigkeit:
# -------------------------------------------------------------------------
# RemRow <- function(zom, krit=2)
# Beseitigen von Zeilen, die duenner besetzt sind, als krit es vorschreibt.

# Z01M <- function(margi, margj, zom="", still=TRUE)
# Erzeugung zufaelliger 0-1-Matrizen fuer gegebene Randsummen  bzgl. Zeilen und
# Spalten = Marginalverteilungen = Istria-Algorithmus ;-)

# TeststUI <- function(margi, margj, n=1000)
# Test der stochastischen Unabhaengigkeit des Istria, realisiert durch Z01M

# SSqCPRows <- function(zom, still=TRUE)            # konfirmatorisch
# Berechnet die Summe der quadrierten Kreuzprodukte fuer Zeilenpaare einer
# 0/1-Matrix, eine einfache Omnibus-Statistik, die mit der Varianz der Groesse
# der Durchschnitte bzgl. der Spalten aequivalent ist.

# SSqCPCols <- function(zom, still=TRUE)            # konfirmatorisch
# Berechnet die Summe der quadrierten Kreuzprodukte fuer Spaltenpaare einer
# 0/1-Matrix, eine einfache Omnibus-Statistik, die mit der Varianz der Groesse
# der Durchschnitte bzgl. der Zeilen aequivalent ist (vgl. Oldenbuerger 1981).

# HaZSPRows <- function(zom, krit=1.96, still=TRUE)  # exploratorisch
# Ermittelt hoechste absolute z-Werte, > krit, zu den Skalarprodukten zwischen
# _Zeilenpaaren_; ein gegenueber SSqCPRows normiertes, vergleichbares Masz fuer
# 0/1-Matrizen ~ z-Wert der hypergeometrischen Verteilung des Fisher-Exact-Tests

# HaZSPCols <- function(zom, krit=1.96, still=TRUE) # exploratorisch
# Ermittelt hoechste absolute z-Werte, > krit, zu den Skalarprodukten zwischen
# _Spaltenpaaren_; ein gegenueber SSqCPRows normiertes, vergleichbares Masz fuer
# 0/1-Matrizen ~ z-Wert der hypergeometrischen Verteilung des Fisher-Exact-Tests

# MqZSPRows <- function(zom, still=TRUE)            # konfirmatorisch
# Berechnet den Mittelwert quadrierter z-Werte zu den Skalarprodukten zwischen
# _Zeilenpaaren_; ein gegenueber SSqCPRows normiertes, vergleichbares Masz fuer
# 0/1-Matrizen ~ z-Wert der hypergeometrischen Verteilung des Fisher-Exact-Tests

# MqZSPCols <- function(zom, still=TRUE)            # konfirmatorisch
# Berechnet den Mittelwert quadrierter z-Werte zu den Skalarprodukten zwischen
# _Spalenpaaren_; ein gegenueber SSqCPRows normiertes, vergleichbares Masz fuer
# 0/1-Matrizen = z-Wert der hypergeometrischen Verteilung des Fisher-Exact-Tests

# OmniZ01M <- function(zom, wahl=c(1,1,1,1), nsim=1000)
# Randomisierungstest zur zufallskritischen Beurteilung von Struktureigen-
# schaften einer 0/1-Matrix mittels wahlfreier Statistiken zu 'nsim' zufaelligen
# Matrizen mit fixierten Randverteilungen (Omnibus in mehrfacher Hinsicht)

# Randomisierungsbasis: zufaellige Permutation in den Spalten der Datenmatrix
# --------------------------------------------------------------------------
# RnDMiSp <- function(dm)
# Randomisierung der Datenmatrix _innerhalb_ der Spalten 
# durch zufaellige Permutation mit NA-Positionsfix - Version 0.22

# Standardisierung der Datenmatrix
# --------------------------------
# StanDMNA <- function(dm, vsel="")
# Standardisierung der Datenmatrix mit Missing Data = NAs

# Evaluation der Clusterbarkeit
# -----------------------------
# DepfuI <- function(dm, texp=1)
# Measures/Indices for Departure(Abweichung) from ultrametric Inequality

# RTCbk <- function(dm, texp=1, nzuf=10000)
# Randomisierungstest der Clusterbarkeit mittels Abweichung von Ultrametrik
# nutzt DepfuI, RnDMiSp - Version 0.11 - getestet, siehe 'Anmerkungen'

# Evaluation dimensionaler Modelle zu Datenmatrizen mit Missing Data fuer PLS
# ---------------------------------------------------------------------------
# PCADMD <- function(dm, ztri=TRUE, m0=TRUE, v1=TRUE, imax=10, prc=TRUE)
# Hauptkomponentenanalyse von Datenmatrizen mit Missing Data(NA)
# Extraktion einer Hauptkomponente durch alternierendes Kleinst-Quadrat

# RTPCA <- function(dm, fsm0=TRUE, fsv1=TRUE, ntri=2, itmx=20, nfak=0,
#                   nzuf=0, siga=0.05, peig=TRUE)
# Randomisierungstest der Hauptkomponenten von Datenmatrizen mit Missing 
# Data(NA) zur Bestimmung der Anzahl zufallskritisch gepruefter PLS-Komponenten
# Extraktion durch duales Skalieren = alternierendes Kleinst-Quadrat

# Evaluation der Stabilitaet und Reliabilitaet
# --------------------------------------------
# StabKorStr <- function(dm, mdm="pairwise.complete.obs", nzuf=100)
# Beurteilung der Stabilitaet der Korrelationsstruktur einer Datenmatrix durch
# Bootstrapping der kophenetischen Korrelation(en) (der Korrelationsmatrix der
# empirischen Daten mit den Korrelationsmatrizen der gesampelten Daten).

# RTrensch <- function(dm, loes="", gew="", nzuf=1000)
# Beurteilung der Trennschaerfe von Items durch Berechnung der Korrelation mit
# dem Number-Right-Score des Resttests und deren zufallskritische Beurteilung
# durch Randomisierungstest mittels spaltenweiser zufaelliger Permutation

# RTCronbA <- function(dm, sca=F, nzuf=1000)
# Beurteilung der Reliabilitaet gewichteter additiver (latenter) Variablen
# durch Cronbachs Alpha und dessen zufallskritische Beurteilung durch den
# Randomisierungstest mittels spaltenweiser zufaelliger Permutation - Vers. 0.01
}
Verfügbar über:   http://www.liteline.de/~holdenb/fst/nwz/R-PHP/DataMat.R
Zu tun: z.B.:
- Generierung zufälliger Matrizen mit fixierten Randverteilungen für beliebige Eintragungen - Versuch eines allgemeinen Istria-Algorithmus (Nachfrage Günter L. Huber)
- Randomisierungstest nichtlinearer Zusammenhäge (DRZ ;-) bis zur Kausal-Dominanzanalyse nach LEHMANN (2002)


Überbrückt: Proxim.R - Proximity-Matrizen

Varianten: (Quadratische) Matrizen mit Korrelationen, Kongruenzen, Kontingenzen; Distanzen; Ähnlichkeitsurteilen
Datenformate: Alle, die R lesen kann.
Programme:
InfoProx <- function()   # InfoProx gibt die folgende Kurzinformation aus
{
# Einlesen der Datenmatrix:
# -------------------------

# LiesProx <- function(file="file")
# Einlesen der quadratischen Proximitymatrix (falls noetig)

# Transformationen
# ----------------
# RundProx <- function(pm, stell=3)
# Runden zur Verbesserung der Lesbarkeit einer Proximitymatrix (0 < prox < 1)
# Nur Hinweis

# FGS2Dist <- function(fgsv)
# Vom Factor-, Gruppierungs- oder Sortierungsvektor zur Distanzmatrix
# Version 0.00 - Zwar nur Hinweis, aber wissenswert.

# KWegDist <- function(pm)
# Kuerzeste-Weglaengen-Distanzen (All-Pairs Shortest Paths) koennen aus 
# Adjazenz-Gewichts-Matrizen erweitert werden, vgl. Cormen, Leiserson & Rivest,
# S.550ff

# Dist2SP <- function(dm)
# Wandelt Matrizen von Distanzen zu Skalarprodukten (nach Torgerson 1958)
# Der Schwerpunkt(Zentroid) ist Ausgangspunkt der Vektoren

# SP2Dist <- function(spm)
# Von Skalarprodukt-Matrizen, z.B. Korrelationen, Kovarianzen, Kreuzprodukten,
# zu Distanz-Matrizen (vgl. Borg, 1981, S.389; Papula, 2001, S. 29). - Hinweis

# Modellierung:
# -------------
# StatBProx <- function(pm)
# Einfache statistische Beschreibung einer Proximitymatrix

# Prototyp <- function(dm)
# Zu einer Distanzmatrix wird einfach der Vektor der Zeilensummen berechnet;
# das Objekt mit minimaler Zeilensumme ist der Prototyp - Hinweis

# OptSchnPr <- function(pm, dist=TRUE)
# Ermittlung des optimalen Schnitts durch eine Proximitymatrix durch Berechnung
# aller kophenetischen Korrelationen mit der 0/1-Matrix des zugehoerigen Graphen
# vgl. Oldenbuerger, 1981, S.XXX - Version 0.00

# BelSchnPr <- function(pm, schnitt=NA)
# Beliebiger Schnitt durch eine Proximitymatrix und ihre Darstellung durch eine
# Null-Eins-Matrix, sowie der/ssen Evaluation durch kophenetische Korrelation

# MetrMDS <- function(dist, 2dimbild="2dimds.png")
# Metrische mehrdimensionale Skalierung zur 2-dimensionalen Veranschaulichung
# von Distanzmatrizen. Anregung und Hinweis zur Visualisierung - Version 0.00

# OptClust <- function(dist, mag=2, ap="", nzuf=100, nasw=1)
# Ermittlung der besten Partition durch Optimierung der kophenetischen Korre-
# lation zwischen empirischen Distanzen und Distanzen bzgl. Zerlegung(en)
# durch Auswahl aus zufälligen Partitionen und systematischen Austausch von
# Element-Gruppenzuordnungen, sowie Swap-All; verwendet FGS2Dist + KophKorr

# OptClustG <- function(dist, mag=2, ap="", nzuf=100, nasw=1)  
# Diese gierige Version führt erfolgreiche Aenderungen sofort durch.

# KophKorr <- function(a, b)
# Kophenetische Korrelation = Korrelation zwischen zwei Proximitymatrizen
# (untere Dreiecksmatrix) - nur Hinweis

# Statistische Pruefungen:
# ------------------------
# RTAPVAPM <- function(a, b, nzuf=10000)
# Randomisierungstest: Approximation der Permutationsverteilung der Assoziation
# (= kophenetischen Korrelationen) zwischen Proximitymatrizen (unteres Dreieck)

# (Paradigmatische) Datenstruktur: MVPM = Matrix von (Spalten-)Vektoren von 
# Proximity-Matrizen - Ermoeglicht Zusammenfuehrung von Datenarten, multi-
# variate Modellierung und zufallskritische Pruefung durch Randomisierungstests:

# DatM2MVPM <- function(datm)
# Aus einer Datenmatrix numerischer Variablen wird eine Matrix von (Spalten-)
# Vektoren j erstellt, die die untere/obere Dreiecksmatrix der Distanzen
# zwischen den Beobachtungswiederholungen i bzgl der Variablen j enthaelt.
# Je Spalte vergroessert das die Matrix von n auf n*(n-1)/2, ermoeglicht aber
# die Zusammenfuehrung verschiedener Datenarten.

# RndMVPM <- function(mvpm)
# Randomisierung der Proximitymatrizen _innerhalb_ der Spaltenvektoren von mvpm
# durch zufaellige symmetrische Permutation (ohne NAs) - Version 0.01

# RTKKMVPM <- function(mvpm, nzuf=1000)
# Randomisierungstest der kophenetischen Korrelationen zwischen den Spalten-
# vektoren von mvpm durch zufaellige symmetrische Permutation (ohne NAs) - 
# Version 0.01
}
Verfügbar über: http://www.liteline.de/~holdenb/fst/nwz/R-PHP/Proxim.R
Zu tun: z.B.:
eventuell: mehrere Prototypen = Stellvertreter (= "Zentralinstanzen")
eventuell: zwei Schnitte durch eine Proximity-Matrix: - 0 + und Heider-Balance
eventuell: minimal spannender Baum

Technische Übersicht:

Modul Daten Version Programme Umfang
ContAna.R Text, Codes, XML 0.85 19 25 KB
UniRel.R Graphen 0.35 10 20 KB
NWZ1.R multirelationale Netze 0.52 15 22 KB
Struktup.R höherstellige Relationen 0.02 4 9 KB
DataMat.R Standard-Datenmatrix 0.73 20 44 KB
Proxim.R Proximitymatrizen 0.48 18 21 KB
Gesamt 2.95 (1.93) 86 (62) 141 (95) KB

Fazit und Ausblick

Rückblick und Status der Konzeption:
Zeitrahmen des Projekts:
Ausblick:
Nachdem nun Programme zur Verfügung stehen, kann ein Vorschlag von Norbert GROEBEN (Köln 1998) greifen, ein Projekt zur Dokumentation und Entwicklung der Einsatzmöglichkeiten der Netz-Werk-Zeuge anzustossen.
Um den nachvollziehbaren Einsatz der Programme zu dokumentieren sind zahlreiche Input-Output-Beispiele mit Erläuterungen und Erweiterungen zu erstellen.

Referenzen:

BAUM, S.: Kommunikation und Interaktion aus der Sicht von Jugendlichen. Diplomarbeit, Universität Göttingen, Seminar für Wirtschaftspädagogik, 2002.
BECKER, D., OLDENBÜRGER, H.-A. & PIEHL, J.: Motivation und Emotion. In: LÜER, G.(Hrsg.): Allgemeine Experimentelle Psychologie. Stuttgart: Gustav Fischer, 1987, 431 - 470.
du CARROIS, S.: Lernstrategien aus der Sicht von Schülerinnen und Schülern kaufmännischer Schulen. Diplomarbeit, Seminar für Wirtschaftspädagogik, Universität Göttingen, 2000.
ECKES, Th.: Politische Orientierung und die semantische Struktur politischer Begriffe. Zeitschrift für Sozialpsychologie, 1986, 17, 255 - 269.
EDGINGTON, E.S.: Randomization Tests. 3rd Edition. Statistics: Textbooks and Monographs, Vol.147. New York: Marcel Dekker, 1995.
EFRON, B.: Bootstrap methods: another look at the jackknife. Ann. Statist. 1979, 7, 1-26.
EFRON. B. & TIBSHIRANI, R.J.: An Introduction to the Bootstrap. New York: CHAPMAN & HALL, 1993.
EID, M.: Modelle der Messung von Personen in Situationen. Weinheim: Beltz PVU, 1995.
FELLBAUM, Chr.(Ed): WordNet - An Electronic Lexical Database. Cambridge: The MIT Press, 1998.
FILLENBAUM, S. & RAPAPORT, A.: Structures in the Subjective Lexicon. New York: Academic Press, 1971.
FISHER, R. A.: Design of Experiments. Edinburgh: Oliver and Boyd, 1935.
FÜRSTENAU, B.: Komplexes Problemlösen im betriebswirtschaftlichen Unterricht. Dissertation. Universität Göttingen. Wiesbaden: Gabler, Deutscher Universitätsverlag, 1994.
FÜRSTENAU, B. & TROJAHNER, I.: Prototypische Netzwerke als Ergebnis struktureller Inhaltsanalysen. In: GONON, Ph., KLAUSER, F., NICKOLAUS, R. & HUISINGA (Hrsg.): Kompetenz, Kognition und neue Konzepte der beruflichen Bildung. Wiesbaden: VS Verlag für Sozialwissenschaften, 2005, S. 191 - 202.
FUNKE, J.: Wissen über dynamische Systeme: Erwerb, Repräsentation und Anwendung. Lehr- und Forschungstexte Psychologie 43. Berlin: Springer-Verlag, 1992.
GANTER, B. & WILLE, R.: Formal Concept Analysis. Berlin: Springer, 1999.
GARTHE, N.: Entwicklung individuellen komplexen Wissens im Unterricht - eine empirische Untersuchung an Schülerinnen und Schülern der Wirtschaftslehre. Diplomarbeit am Seminar für Wirtschaftspädagogik der Universität Göttingen, 2007. (PDF als ZIP mit üblichem Passwort: http://www.liteline.de/~holdenb/fst/texte/ngarthe07.pdf )
GENTNER, D.: Structure-mapping: A theoretical framework for analogy. Cognitive Science, 1983, 7, 155-170.
GETSCH, U.: Möglichkeiten einer Förderung von betriebswirtschaftlichem Zusammenhangswissen. Dissertation. Göttingen: Seminar für Wirtschaftspädagogik der Universität Göttingen, Berichte: Band 13, 1990.
GIGERENZER, G.: Messung und Modellbildung in der Psychologie. Mnchen: Reinhardt, UTB 1047, 1981.
GOOD, Ph.: Permutation Tests. New York: Springer, 1993.
GROEBEN, N.: Die Handlungsperspektive als Theorierahmen für Forschung im pädagogischen Feld. In: HOFER, M.(Hrsg.): Informationsverarbeitung und Entscheidungsverhalten von Lehrern. München: Urban & Schwarzenberg, 1981, S. 17 - 48.
GROEBEN, N.: Handeln, Tun, Verhalten als Einheiten einer verstehend-erklärenden Psychologie. Tübingen: francke, 1986.
GROEBEN, N. (Hrsg.): Zur Programmatik einer sozialwissenschaftlichen Psychologie. Band I: Metatheoretische Perspektiven. 1. Halbband: Gegenstandsverständnis, Menschenbilder, Methodologie und Ethik. Arbeiten zur sozialwissenschaftlichen Psychologie, Band 33. Münster: Aschendorff Verlag, 1997.
GROEBEN, N. (Hrsg.): Zur Programmatik einer sozialwissenschaftlichen Psychologie. Band I: Metatheoretische Perspektiven. 2. Halbband: Theoriehistorie, Praxisrelevanz, Interdisziplinarität, Methodenintegration. Arbeiten zur sozialwissenschaftlichen Psychlogie, Band 34. Münster: Aschendorff Verlag, 1999.
GROEBEN, N. (Hrsg.): Zur Programmatik einer sozialwissenschaftlichen Psychologie. Band II: Objekttheoretische Perspektiven. 1. Halbband: Sozialität, Geschichtlichkeit, Erlebnisqualitäten, Kognitive Konstruktivität. Arbeiten zur sozialwissenschaftlichen Psychologie, Band 35. Münster: Aschendorff Verlag, 2001.
GROEBEN, N. (Hrsg.): Zur Programmatik einer sozialwissenschaftlichen Psychologie. Band II: Objektheoretische Perspektiven. 2. Halbband: Situationsbezug, Reflexivität, Rationalität, Theorieintegration. Arbeiten zur sozialwissenschaftlichen Psychologie, Band 36. Münster: Aschendorff Verlag, 2003.
GROEBEN, N.: Gibt es Wege aus der selbstverschuldeten Irrelevanz des qualitativen Offstreams? Vortrag, gehalten auf dem Berliner Methodentreffen Qualitative Forschung, 2006 http://www.qualitative-reserach.net/fqs-texte/4-06-4-34-d.htm
GROEBEN, N. & ERB, E.: Menschenbilder. In: STRAUB, J., KEMPF, W. & WERBIK, H. (Hrsg.): Psychologie. München: Deutscher Taschenbuch Verlag, 1997, S. 17 - 41.
GROEBEN, N. & RUSTEMEYER, R.: Inhaltsanalyse. In: KÖNIG, E. & ZEDLER, P.: Bilanz qualitativer Forschung. Band II: Methoden. Weinheim: Deutscher Studien Verlag, 1995, S. 523 - 554.
GROEBEN, N., WAHL, D., SCHLEE, J. & SCHEELE, B.: Forschungsprogramm Subjektive Theorien. Tübingen: francke, 1988.
GÜRTLER, L.: Die Rekonstruktion von Innensicht und Aussensicht humorvollen Handelns in Schule und Erwachsenenbildung. Die Bewältigung der Katastrophe - Vipassana-Meditation und Humor. Dissertation an der Sozial- und Verhaltenswissenschaftlichen Fakultät der Universität Tübingen. Berlin: LOGOS-Verlag, 2005.
GÜRTLER, L. & OLDENBÜRGER, H.-A.: Humor aus Schüler/innensicht. Beitrag zum Symposium des Forschungsprogramms 'Subjektive Theorien' (FST), Ludwigsburg, 2.-4. März 2005. http://www.fst-symposium.de/login/guertler_oldenbuerger.pdf
HARARY, F., NORMAN, R.Z. & CARTWRIGHT, D.: Structural Models. New York: Wiley, 1965.
HELBIG, H.: Die semantische Struktur natürlicher Strache. Berlin: Springer, 2001.
HELBIG, H.: Knowledge Representation and the Semantics of Natural Language. (Cognitive Technologies) Berlin: Springer, 2007.
HUBER, G.H.: Aquad Sechs. Tübingen: Ingeborg Huber Verlag, 2002.
HUBERT, L.: Assignment Methods in Combinatorial Data Analysis. Statistics: Textbooks and Monographs, Vol.73. New York: Marcel Dekker, 1987.
HUMMELL, H.J. & SODEUR, W.: Triaden- und Triplettzensus als Mittel der Strukturbeschreibung. In: PAPPI, F.U.: Methoden der Netzwerkanalyse. Techniken der empirischen Sozialforschung 1. Band. Mnchen: Oldenbourg, 1987.
HUSSY, W.: Ein Beitrag zur Operationalisierung und Quantifizierung kognitiver Komplexität. Archiv für Psychologie, 1977, 129, 288-301.
INTERNATIONAL NETWORK for SOCIAL NETWORK ANALYSIS: http://www.insna.org/ (zuletzt: 23. 9. 2007)
KLIR, G.: Architecture of systems problem solving. New York: Plenum, 1985.
KOHNE, Th.: Reliabilitätsuntersuchungen zur Netzwerkbildung bei der Erhebung kognitiver Strukturierungen. Diplomarbeit. Göttingen: Seminar für Wirtschaftspüdagogik der Universität� Güttingen, 1992.
LEHMANN, G.: Modell- und rekursionstheoretische Grundlagen psychologischer Theorienbildung. Lehr- und Forschungstexte Psychologie 14. Heidelberg: Springer 1985.
LEHMANN, G.: Statistik - Eine Einführung. Heidelberg: Spektrum, 2002.
LIPPENS, V.: Forschungsproblem: Subjektive Theorien: Zur Innensicht in Lern- und Optimierungsprozessen. Bericht über das Colloquium / Symposium am 7. und 8. Oktober 1992 in Hamburg. Köln: Berichte und und Materialien des Bundesinstituts für Sportwissenschaft, Band 10, 1993.
LOEHLIN, J.C.: Latent Variable Models. Mahwah (NJ), London: Erlbaum, 1998,
LOUKIDES, M. & ORAM, A.: Programmieren mit GNU-Software. Cambridge: O'Reilly, 1997.
MEBANE, W.R. & SEKHON, J.S.: The GENetic optimization and Bootstrapping of LInear Structures (GENBLISS). 1998. http://data.fas.harvard.edu/jsekhon/glisrel
MILES, M.B. & HUBERMAN, A.M.: Qualitative data analysis. New Delhi: Sage, 1984.
MILLER, G.A.: A psychological method to investigate verbal concepts. Journal of Mathematical Psychology, 1969, 6, 169 - 192.
MILLER, G.A.: WÖTER. Heidelberg: Spektrum Akademischer Verlag, 1993.
MILLER, G.A.: On Knowing a Word. In: SPENCE, J.T., DARLEY, J.M. & FOSS, D.J. (Ed): Annual Review of Psychology, Vol.50, 1999, p. 1 - 19.
MISCHO, Chr.: Nebenbedingungen bzgl. der Kombination von Propositionen in der Randomisierungsbasis. Mündliche Mitteilung: Leipzig 1998.
MISCHO, Chr.: Zur Repräsentation pädagogischer Einstellungen: Fragebogen und Ziel-Mittel-Argumentation im Vergleich. In: WITTE, E.H. (Hrsg.): Sozialpsychologie der Kognition: Soziale Repräsentationen, subjektive Theorien, soziale Einstellungen. Lengerich: Pabst, 1998, S. 183 - 205.
MISCHO, Chr. & GROEBEN, N.: Bezugsnormorientierung: Warum sich LehrerInnen unterscheiden. Empirische Pädagogik, 1995, 9, 423 - 459.
MUHR, Th.: Increasing the Reusability of Qualitative Data with XML. 2000. http://www.qualitative-research.net/fqs-texte/3-00/3-00muhr-d.htm
MUTZECK, W., SCHLEE, J. & WaHL, D.: Psychologie der Veränderung. Weinheim: Beltz Verlag, 2002.
NISHISATO, Sh.: Analysis of Categorical Data: Dual Scaling and its Apllications. Toronto: University of Toronto Press, 1980.
NOLAN, D. & SPEED, T.: Stat Labs - Mathematical Statistics Through Applications. New York: Springer, 2000.
OLDENBÜRGER, H.-A.: Zur Konkretisationserhebung literarischer Texte und hermeneutischer Deutungshypothesen durch Sortierung und Netzwerkbildung. In: GROEBEN, N.(Hrsg): Rezeption und Interpretation - ein interdisziplinärer Versuch am Beispiel der 'Hasenkatastrophe' von R. MUSIL. TÜbingen: Narr, 1981a.
OLDENBÜRGER, H.-A.: Methodenheuristische Überlegungen und Untersuchungen zur "Erhebung" und Repräsentation kognitiver Strukturen. Dissertation, Universität Göttingen, 1981b. Auch erschienen als: Braunschweiger Studien zur Erziehungs- und Sozialarbeitswissenschaft, Band 18, 1986.
OLDENBÜRGER, H.-A.: Clusteranalyse. In: BREDENKAMP, J. & FEGER, H. (Hrsg.): Strukturierung und Reduzierung von Daten (Band 4), Forschungsmethoden der Psychologie (Serie I), Enzyklopädie der Psychologie. Göttingen: Hogrefe, 1983.
OLDENBÜRGER, H.-A.: Subjektive Theorien in Lern-Lehr-Prozessen - Mittelfristige Lösungsansäze für einige Überbrückungsprobleme. In: GRÖSCHEL, H. & MÜLLER-GUERTLER, G. (Hrsg.): Schülerperspektive im Sportunterricht - Studentenperspektive im Sportlehrerstudium. Deutsche Vereinigung für Sportwissenschaft. DVS-Protokolle Nr. 20 Clausthal-Zellerfeld, 1986a, 3 - 49.
OLDENBÜRGER, H.-A.: Does a tendency to group pupils or attributes exist in teachers' cognitions/judgments. In: BEN-PERETZ, M., BROMME, R. & HALKES, R.(Ed): Advances of Research on Teacher Thinking. Lisse: Swets & Zeitlinger B.V., 1986b, 186 - 200.
OLDENBÜRGER, H.-A.: Lehrerkognitionen über Schülereigenschaften - Theoretische und methodologische Perspektiven. Unterrichtswissenschaft, 1987, 15, 261 - 273.
OLDENBÜRGER, H.-A.: Netz-Werk-Zeug 1: Zählwerk für beliebige Variablenkombinationen. Version a.z. (Programm und Dokumentation) Göttingen: Seminar für Wirtschaftspädagogik, 1992a.
OLDENBÜRGER, H.-A.: Netz-Werk-Zeuge als Konzept und Mittel struktureller Analyse (Version 2.0) - Ein Beitrag zur Methodologie des Forschungsprogramms 'Subjektive Theorien'. Vortrag, gehalten anlässlich des Symposiums 'Forschungsproblem: "Subjektive Theorien"' in Hamburg, Oktober 1992b. (vgl. LIPPENS 1993)
OLDENBÜRGER, H.-A.: APM (Netz-Werk-Zeug 14): Statistischer Test der Assoziation von Proximitymatrizen. Version 0.28. (Programm) Göttingen: Seminar für Wirtschaftspüdagogik, 1994.
OLDENBÜRGER, H.-A.: Exploratorische, graphische und robuste Datenanalyse. In: ERDFELDER, E., MAUSFELD, R., MEISER, Th. & RUDINGER, G. (Hrsg.): Handbuch Quantitative Methoden. Weinheim: Beltz, Psychologie Verlags Union, 1996, 71 - 86.
OLDENBÜRGER, H.-A.: APV-APM - Approximation der Permutationsverteilung kophenetischer Korrelationen zwischen Proximitymatrizen. Version 0.01 - Ein niedliches R-Programm. Göttingen: Seminar für Wirtschaftspädagogik, 1998a.
OLDENBÜRGER, H.-A.: R CheatSheet: base - Overview (for R-0.61.2). http://wipaed.wiso.uni-goettingen.de/~holdenb1/R/library/base/html/00cheat.html Göttingen: Seminar fÜr Wirtschaftspädagogik, 1998b.
OLDENBÜRGER, H.-A.: Binomial Distribution - PHP-Program. http://www.liteline.de/~holdenb/php/bindist/ 1999a.
OLDENBÜRGER, H.-A.: A Generalized Binomial Distribution - PHP-Program. http://www.liteline.de/~holdenb/php/gbindist/ 1999b.
OLDENBÜRGER, H.-A.: Netz-Werk-Zeuge als Konzept und Mittel struktureller Analyse (Version 3.0) - Ein Beitrag zur Methodologie des Forschungsprogramms 'Subjektive Theorien'. Symposium Weingarten 2002. http://www.liteline.de/%7Eholdenb/fst/nwz/nwz-konz.html
OLDENBÜRGER, H.-A., PALLENBERG, H. & WIENECKE, C.-P.: Ursachenerklürungen schulischer Leistungen durch Schler unterschiedlicher Schulformen. In: ACHTENHAGEN, F. & JOHN, E.G. (Hrsg): Lernprozesse und Lernorte in der beruflichen Bildung. Seminar für Wirtschaftspädagogik der Universität� Göttingen, Berichte: Band 12, 1988, 464 - 474.
OLDENBÜRGER, H.-A., FRÖVEL, W., KURZAWA, B. & WEYMAR, B.: Unterricht aus Schülersicht - Strukturelle Inhaltsanalysen, Netzwerkerhebung und -modellierung. In: ACHTENHAGEN, F. & JOHN, E.G. (Hrsg.): Mehrdimensionale Lehr-Lern-Arrangements. Innovationen in der kaufmännischen Aus- und Weiterbildung. Wiesbaden: Gabler, 1992, S. 612 - 621.
OLDENBÜRGER, H.-A. & Göttinger Kommiliton/inn/en: Modell der sozialen Person-Situations-Interaktion. ~1995, Zweite Fassung: http://www.wipaed.wiso.uni-goettingen.de/~holdenb1/hoko2003.pdf
PEDHAZUR, E.J.: Multiple Regression in Behavioral Research. Fort Worth: Harcourt Brace College Publishers, 1997, 3rd Edition.
SCHEELE, B.: Emotionen als bedürfnisrelevante Bewertungszustände. Tübingen: francke, 1990.
SCHEELE, B.(Hrsg.): Struktur-Lege-Verfahren als Dialog-Konsens-Methodik. Arbeiten zur sozialwissenschaftlichen Psychologie, Band 25. Münster: Aschendorff, 1992.
SCHEELE, B. & GROEBEN, N.: Heidelberger Struktur-Lege-Technik. Weinheim: Beltz, 1984.
SCHREIER, M.: Die Aggregierung Subjektiver Theorien: Vorgehensweise, Probleme, Perspektiven. Kölner Psychologische Studien. 1997, 2, 37 - 71.
SCHUNCK, A.: Subjektive Theorien von Berufsfachschülern zu einem planspielgestützten Betriebswirtschaftslehre-Unterricht. Dissertation. Seminar für Wirtschaftspädagogik der Universität Göttingen, Berichte: Band 19, 1993.
SCOTT, W.A.: Cognitive complexity and cognitive flexibility. Sociometry, 1962, 25, 405-414.
SIEBENHÜNER, E.: Kostenrechnungsdidaktik. Seminar für Wirtschaftspädagogik, Universität Göttingen, 2007.
SNIJDERS, T. A. B.: Enumeration and simulation methods for 0-1 matrices with given marginals. Psychometrika, 1991, 56, 397 - 417.
SOWA, J.: Knowledge Representation: Logical, Philosophical and Computational Foundations. Thomson Learning, 1999.
STACHOWIAK, H.: Der Weg zum Systematischen Neopragmatismus und das Konzept der allgemeinen Modelltheorie. In: STACHOWIAK, H. (Hrsg.): Modelle und Modelldenken im Unterricht. Bad Heilbrunn: Klinckhardt, 1980.
STEMME, S.: Komponenten der Motivation, Dimensionen und Deutungsmuster in Ursachenerklärungen von Leistungen bei Schülern berufsbildender Schulen. Diplomarbeit am Seminar für Wirtschaftspädagogik der Universität Göttingen, 2007. PDF mit üblichem Passwort: http://www.liteline.de/~holdenb/fst/texte/stemme.pdf
TROJAHNER, I.: Analyse kognitiver Strukturen von Auszubildenden über die Auftragsbearbeitung in einem Industriebetrieb. Diplomarbeit, Seminar für Wirtschaftspädagogik, Universität Göttingen 2002.
TUKEY, J.W.: Exploratory Data Analysis. Reading MA: Addison-Wesley, 1977.
VENABLES, B., SMITH, D. and the R Core Development Team: An Introduction to R - Notes on R: A Programming Environment for Data Analysis and Graphics, 2004. http://cran.r-project.org/doc/manuals/R-intro.pdf
WASSERMAN, St. & FAUST, K.: Social Network Analysis. Cambridge: Cambridge University Press, 1994.
WEYMAR, B.: Unterricht aus der Sicht von Schülern berufsbildender Schulen: Versuch einer Rekonstruktion subjektiver Theorien über Unterricht anhand von Schüleraufsätzen. Diplomarbeit. Göttingen: Seminar für Wirtschaftspädagogik der Universität Göttingen, 1986.

p.s.: In diesem Beitrag konnte die Peinlichkeitsgrenze von nicht mehr als drei Selbstzitaten nicht eingehalten werden. Es ging eben gerade um die übersichtliche Darstellung eines partiell persönlichen, langjährigen Projekts.

URL: http://www.liteline.de/~holdenb/fst/nwz/nwz-prog.html

email: holdenb1 (at) uni-goettingen.de / zuletzt 26. September 2007