Words and Rules?

hallo zusammen,

während der letzten wochen habe ich mich recht tief in die inflectional morphology-learning lit eingelesen. speziell habe ich mir die frage angeschaut, ob wir einen (Bybee, Elman, …) oder zwei (Pinker, Marcus, …) Verarbeitungsmechanismus/-en brauchen, um z.B. Past- oder Pluralformen zu bilden.

David Eddington hat hier gezeigt, dass instance-based models (TiMBL und analogical mods a la Skousen) besser performen als zumindest einige Typen von Neuralen Netzen.

Aus meiner Sicht sollten k-nearest neighbor classifiers, die alles über Ähnlichkeitsalgorithmen lösen (und speziell solche, die über instances generalisieren (cf. Fambl) ), outputs erzeugen, die die Vorhersagen von UB-CxGs recht nahe kommen.

Ich hab mir nun mal vorgenommen, mir da mal etwas first hand experience zu erarbeiten und mir mal die outputs verschiedener single-route lösungen anzuschauen.
R verfügt über eine Reihe geeigneter Implementationen relevanter Klassifikationssysteme (e.g. nnet für Neurale Netze, ksvm für Support Vector Machines, randomForest für Random Forest Models, …) und Walter Daelemans/Antal van den Bosch und Kollegen bieten ihr TiMBL frei zum DL an.

Wär cool, wenn jemand von Euch Interesse hat, da mitzumachen,
Im Idealfall entsteht daraus mittelfristig ein kleines L1-Erwerbpapier (auf CHILDES Datengrundlage), daß man dann “co-author”-n könnte.

cheers,
daniel

PS: morgen gehts übrigens los mit session 1 der R Gruppe in SS2010 (siehe letzter post)
3

Kommentieren

Sie müssen angemeldet sein, um kommentieren zu können.