Diskussion:Künstliches Neuron

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 11 Monaten von Rost74 in Abschnitt Link zu interaktivem JupyterLite-Notebook
Zur Navigation springen Zur Suche springen

Aktualität

[Quelltext bearbeiten]

Hallo!

Ohne über den bisherigen ausführlichen Inhalt zu meckern möchte ich darauf hinweisen, dass seit Ende der Neunziger Jahre eine neue Generation (sogenannte 3. Generation) von Neuronalen Netzwerken in den Fokus der Wissenschaft geraten ist. Ganz unabhängig erstmal von den Lernverfahren, werden dort die Neuronen ihrem zeitinvariantem Verhalten enthoben und die echten biologischen Systeme nachempfunden, indem nicht mehr die Frequenz des Feuerns von Neuronen am Axonhügel in eine analoge Größe umgerechnet wird, sondern die Spikes in den entsprechenden Frequenzen tatsächlich simuliert werden. In dem Zusammenhang werden auch die Zeiten für die Informationsweiterleitung zwischen Neuronen und auch innerhalb eines Neurons mit simuliert. Ebenso, und das ist das wirklich wesentliche daran, der zeitliche Verlauf des elektrostatischen Potentials über der Membran des Neurons. Dadurch ergibt sich ein völlig verändertes Verhalten, als bei der bloßen zeitinvarianten Summierung eintreffender und gewichteter Werte vorangelagerter Neuronen.

Wie sich gezeigt hat, ist der qualitative Unterschied zwischen der zweiten und dritten Generation in der Annäherung an die tatsächlichen Zusammenhänge in biologischen Systemen so groß, dass heute nur noch mit der dritten Generation geforscht wird.

Die zweite Generation, wie sie momentan im Artikel geschildert wird, ist deswegen nicht vergessen und wird weiterhin in Mustererkennungen angewendet.

Wenn für einen rührigen Autor genügend Zeit ist, würde ich empfehlen, den Artikel dahingehend zu erweitern und den allgemeinen Teil noch mehr zu verallgemeinern.

Zur weiteren Recherche: Das momentan in der Wissenschaft bestimmende Stichwort ist "Spiking Neural Network (SNN)". Die englische Wikipedia hat hier schon einen Artikel zu diesen Netzen und Neuronen. Seit der Forschung mit SNN wird in der Literatur auch durchgängig von den drei Generationen gesprochen. Man kann also den Artikel auch sinnvoll nach diesen Generationen gliedern.

PS: Bin gespannt, ob man noch eine vierte Generation entwickeln wird, die sich von der Dritten grundlegend unterscheidet. Das Neuron ist jetzt in seiner vorwärtsgerichteten Informationsverarbeitung recht gut modelliert. Was in der Biologie noch völlig unzureichend erforscht ist, ist das Lernvermögen. Ob man das langfristig in der Wirkung auf bloße Wichtungsparameter reduzieren kann, bezweifle ich. Meine Vermutung: In der 4. Generation wird die räumliche Anordnung und das Wachstum mit berücksichtigt. Und wenn das geklärt ist... geht es um die komplexe Signalverarbeitung: Wie verortet das Netzwerk Schallquellen?...Wieso empfindet das Gehirn sehr selektiv Frequenzen (vor allem als Gemisch mit Oberwellen / Stichwort "Klangempfinden"), ohne über einen Fourier-Analysen-Präprozessor zu verfügen?... Und wie kann das (menschliche) Gehirn eigene Fragestellungen reflektieren und analysieren, ohne in den Betrachtungsebenen durcheinander zu geraten...

Wird schon recht spannend, die nächste Zeit!

--Frank Herbrand 23:52, 11. Nov. 2009 (CET)Beantworten

Verständnisfrage

[Quelltext bearbeiten]

Ich habe das Beispiel erst nach längerem Überlegen nachvollziehen können, es sollte so verbesert werden, dass auch normale Benutzer es auf Anhieb verstehen können. Es ist zu umständlich beschrieben, besonders weil w0 als Gewicht und als Schwellenwert auftritt. Ich habe mir folgende Fragen gestellt:

Warum hat das Neuron im Beispiel drei Eingänge x0, x1, x2, obwohl für die Konjunktion nur zwei Eingänge gebraucht werden? (Siehe Tabelle "Wertetabelle der logischen Konjunktion").

Der Schwellenwert soll wohl w0, also -1 sein. Wenn x0 die konstante Ausgabe −1 übernimmt, warum ändert sich dann x0 in der Tabelle "Ausgabe des Neurons mit zufälligen Gewichten"? Sollten sich nicht bloß x1 und x2 ändern? x0 ist ja eher Zwischenzustand.

"Die erste und dritte Eingabe werden falsch berechnet, das Neuron gibt 0 aus." Warum das? Wer entscheidet hier, was richtig und was falsch ist? Welche Funktion liegt der Lösung zugrunde? Es soll eine Konjunktion gelernt werden, aber ich kann nicht erkennen, dass der Tabelle eine Konjunktion angewendet wurde.

Warum besteht ein "Schritt" aus vier Eingaben? Ist das beliebig gewählt?

Gewichtsanpassung im ersten Schritt "Überprüfung", warum ist hier der letzte Wert falsch?

Schluddi 22:53, 12. Nov. 2007 (CET)Beantworten

Überschneidung

[Quelltext bearbeiten]

Die Themen der Artikel Künstliches Neuron, Künstliches neuronales Netz und Neuroinformatik haben inhaltliche Überschneidungen. Es wird deswegen wohl eine Diskussion nötig sein, um die passende Aufteilung der einzelnen Punkte auf die Artikel sicher zu stellen. Dies sollte sollte also nicht zu einer vorschnellen Umstrukturierung führen. --Chrislb 19:26, 8. Jan 2006 (CET)


Review Juni/Juli 2006

[Quelltext bearbeiten]
Aus dem Review [1] --chrislb 问题 11:13, 9. Jul 2006 (CEST)

„Ein künstliches Neuron bildet die Basis für das Modell der künstlichen neuronalen Netze, einem Modell aus der Neuroinformatik, das durch biologische neuronale Netze motiviert ist. Als konnektionistisches Modell bilden sie in einem Netzwerk aus künstlichen Neuronen ein künstliches neuronales Netz und können so beliebig komplexe Funktionen approximieren, Aufgaben erlernen und Probleme lösen, bei denen eine explizite Modellierung schwierig oder unmöglich ist. Beispiele sind die Gesichts- und Spracherkennung.“

Ich möchte den Artikel, der bisher fast nur auf meinem Mist gewachsen ist, einem größeren Publikum vorstellen, und hoffe auf rege Kritik. Ziel ist die Kandidatur als Lesenswert. Was noch offen ist:

  1. Sind alle wichtigen Kapitel vertreten?
  2. Ist der Kern allgemein verständlich?
  3. Ist die Masse der Rechtschreibfehler klein genug?

Grüße und Danke für jede Anregung im Voraus --chrislb 问题 00:52, 7. Jun 2006 (CEST)

  • Meine Gedanken zu deinem Artikel:
    • Einleitung: find ich so ganz gut
    • Geschichte:Ist meines Erachtens sicher noch etwas ausbaufähig (wenns dich interessiert könnte ich dir den McCulloch/Pitts(1943)-Aufsatz zukommen lassen). Auch könnte man es vielleicht dahingehend demonotonisieren, dass man nicht jeden satz mit dem betreffenden namen anfängt.
    • Modellierung: hm ist das ne Binärfolge, nen Impuls oder in welcher Form hab ich mir die Eingaben vorzustellen? Sind die gar völlig belienig
    • Aktivierungsfkt: Der Absatz Lineare Aktivierungsfunktionen unterliegen einer starken Beschränkung, da eine Komposition linearen Funktionen durch arithmetische Umformungen durch eine einzige lineare Funktion dargestellt werden kann. Damit sind mehrschichtige Verbindungsnetzwerke nicht zu motivieren. Will darauf hinaus das die Fkt nicht linear sein sollen oder?
      • Schwellenwertfunktion: Tät ich ja mit der Heaviside-Funktion geschlossen schreiben aber das ist sicher Geschmackssache und so ersparst du dir natürlich erkärungen.
      • Hier fehlt mir bei den einzelnen Fkt auch noch irgendwie wo der spezielle vorteil dieser oder jener fkt liegt bzw wofür sie verwendet werden. bei stkweisen lin. fkt steht da z.B. garnichts. ausßerdem ist für mich außer bei den sigmoid-fkts auf anhieb nicht klar ersichtlich wie du zu den bezeichnungen der einzelnen kommst
    • Beipiele: Wenn du schon so schöne Graphikenhast koste sie auch aus und bau den Abschnitt etwas aus.
  • Fazit: Meine Stimme beim lesenswert hättest du beriets jetzt. Wenn du den Artikel hier und da noch etwas schleifst z.B. mit meinen Anmerkungen dann lass ich auch gerne mit mir über ein exzellenzbapperl reden.
  • MfG --Morray noch Fragen? 19:23, 7. Jun 2006 (CEST)
Hi, danke für die schnelle Reaktion. Ich geh mal deine Punkte der Reihenfolge nach durch:
  1. Einleitung ist mir relativ wichtig, vorallem, daß sie allgemein verständlich ist, ohne trotzdem zu viel zu erklären. Gewiss eine Diskrepanz bei dem sehr fachlich gebundenen Thema
  2. Ausbau gerne, würde aber sicherlich in der Form für eine Kandidatur ausreichen, oder? Demonotonisieren ginge, wobei die wenigen Sätze nicht viel Spielraum zulassen.
  3. Definitionsbereich kann man kurz erwähnen, aber eher nebensächlich, da wirklich relativ beliebig.
  4. Aktivierungsfunktion: Beziehst du dich auf die Art der Erklärung, also bist du der Ansicht, daß man es nur umformulieren sollte? Matlab bietet u.a. lineare Aktivierungsfunktion für deren Implementation an, sollte also theoretisch schon möglich sein.
  • Schwellenwert würde ich vorziehen, da auch so in der Literatur erwähnt und Namen hat diese Funktion scheinbar viele. Den Redirekt habe ich auch erst diese Woche angelegt :) Bei Wikipedia kommen natürlich ganz verschiedene Fachbereiche zusammen und teilen sich häufig einen Artikel. Das macht einerseits die Verbindung der Bereiche einfacher und interessant, andererseits schlägt man sich oft mit in einem Gebiet ungebräuchlicher Schreibweise rum.
  • Verwendung der Aktivierungsfunktionen: Ist so eine Sache :) Findet sich in der theoretischen Literatur nicht, oder kaum, grad bei stückweise linear kenne ich auch keine Motivierung, aber ich werde suchen. Erklärung der Indizes fehlt wirklich.
  1. Gib mir Bitte noch ein paar Tipps für Beispiele, bin z.Z. zu sehr in der Theorie drinne, als das ich da so kreativ bin.
Ok soweit, ich werde mir die nächsten Stunden (notfalls Tage) nehmen, das nochmals abzuhaken. Danach werde ich das hier nochmal vermerken. --chrislb 问题 20:02, 7. Jun 2006 (CEST)
zu 2 wie gesagt: für lesenswert reichts allemal.
zu 4 hm ne ich meinte damit wie ich den satz verstehe und das er nicht ganz eindeutig ist. zeigt sich ja auch in deiner antwort. Wüsste ehrlich gesagt aber wenn die dinger doch anwendung finden nicht wie man den gescheit umformulieren könnte. (nur aus interesse: welche matlab-toolbox muss ich laden für diese neuronalen netze (ja ich bin grad zu faul zum suchen ;-)))
beim schwellenwert meinte ich eigentlich weniger den namen als vielmehr die mathematische schreibweise also ob du diese fallunterscheidung explizit angibst oder ob du sie in der thetafkt "versteckst"
zu den Beispielen, tja da wüsste ich leider auf anhieb auch nichts, aber da gibts doch sicher noch mehr als boolsche schaltungen insbesondere wenn die eingaben ja quasi beliebig sein dürfen. ich kann ja mal schauen aber ich wüsst schon garnicht wo, kann dir da also nichts versprechen.
Mfg -Morray noch Fragen? 20:56, 7. Jun 2006 (CEST)
So du hast es ja so gewollt auf der Suche nach Beispielen bin ich heute mal in die Bib gelaufen und hab mir [2] ausgeliehen. Kann dir zwar noch nicht versprechen, dass ich am Wochenende Zeit dazu finde da drinnen nach Beispielen zu suchen aber ich werds versuchen. Allerdings ist mir beimaufblättern aufgefallen das es anscheinend noch ein paar Modelle für Neuronen gibt die in deinem Artikel fehlen. Als da wären: Simple Spiking Neuron Modell, Threshold-Fire Models, Conductance-Based Models und Rate Models. Ehrlich gesagt weiß ich icht in wie fern dies für dein Lemma relevant ist da ich dwie gesagt das Buch noch nicht gelesesen habe. Aber ichwerd auch hier versuchen dazu zu kommen hoffe aber das du mir zuvorkommst ;-) MfG--Morray noch Fragen? 18:39, 8. Jun 2006 (CEST)

Anmerkung zum XOR-Absatz, speziell Minsky und Papert: Stephen Grossberg publizierte 1972/73 Aufsätze, in denen er differentielle Funktionen (d.h. kontrastverstärkende in analogen, XOR in binären Netzen) mit parallel geschalteten Neuronen realisierte. Minsky und Papert nahmen das persöhnlich (k.a. - vielleicht gab es schon vorher Animositäten zwischen ihnen; seine Karriere am MIT war zuvor extrem steil verlaufen, und sein Ego war bekanntermaßen nicht das Kleinste... gibt es eigentlich Professoren mit bescheidenem Ego?), verweigerten ihm in den Jahren darauf die "Tenure" (die im US-Unisystem den Übergang von einem Status ähnlich der Juniorprofessur im 7./8. Jahr zur regulären Professur bedeutet), und damit begann ein bis heute andauernder Krieg in der AI-Gemeinde (Grossberg und seine ART-Jünger gegen den Rest der AI-Welt). Die Legende, daß XOR-Operationen in neuronalen Netzen unmöglich seien hält sich in einigen Kreisen bis heute. (Referenz zum wohl wichtigsten Paper der Serie: Grossberg, S. (1973). Contour enhancement, short-term memory, and constancies in reverberating neural networks. Studies in Applied Mathematics, 52, 213-257, online: http://cns.bu.edu/Profiles/Grossberg/Gro1973StudiesAppliedMath.pdf) -- 212.144.192.195 22:38, 7. Jun 2006 (CEST)

Hallo Chris! Das ist extrem verdienstvoll, das du daran arbeitest, weil das Thema bislang in WP nicht sehr prominent vertreten ist (soweit ich weiß). Unter dem Stichwort künstliches Neuron hätte ich aber erwartet, das du auch ein Kapitel zu eher biologisch orientierten Netzwerksimulatoren einbaust. Der SNNS ist ja eher ein "technischer" Simulator. Also das Stichwort wäre Bower und Beemans GENESIS. Aber auch so ist das schon sehr gut! Gruß -- Andreas Werle 14:01, 8. Jun 2006 (CEST)

Freut mich soviel Feedback zu bekommen. Werd mich damit befassen. Am WE finde ich hoffentlich die Zeit und auch Literatur um darauf einzugehen, grad ein wenig im Stress. Grüße --chrislb 问题 11:47, 9. Jun 2006 (CEST)
  • Verwendung der Aktivierungsfunktionen: Bei Zell, Haykin und Patterson finde ich jeweils nur eine kurze Auflistung von einfachen Aktivierungs- oder Ausgabefunktionen. Keines der 3 Bücher beschreibt einen Vorteil der stückweise linearen Funktion.
  • Heaviside: (@Morray) Wenn die Schreibweise gemeint ist, dann würde ich das gerne vermeiden, da diese Funktion außerhalb der Mathematik wahrscheinlich einiges an Bekanntheit einbüßt. Hätte jetzt auch nicht gewußt, daß man sie durch ein Theta beschreibt.
  • Ausbau des Geschichtsteils: Bei den Artikeln Künstliches Neuron, Künstliches Neuronales Netz und Neuroinformatik besteht die Gefahr einer Überschneidung. Für ersteren Artikel habe ich mich relativ auf die Entwicklung beschränkt die mE für die Modellierung und Entwicklung von Neuronen als Modell wichtig war. Die Geschichte wäre generell besser unter KNN oder in einem eigenen Artikel aufgehoben. Deshalb würde ich gerne auf eine Erweiterung dort verzichten und das an passender Stelle weiter ausführen
  • Beispiel: Ich würde gerne ein sehr kurzes Beispiel zum Einlernen eines einzelnen Neurons geben. So könnte z.B. die Und-Funktion gelernt werden. Falls es da eine Quelle gibt würd ich mich über einen Hinweis freuen, sonst werde ich da selbst nochmal in Ruhe etwas überlegen. Ein anderes Einfaches Beispiel wäre natürlich genau so willkommen, allerdings lässt sich der binäre Fall mE recht einfach darstellen.
  • Pulsed Neural Networks: Über aktuelle Forschung bin ich persönlich nicht so informiert, deshalb kenne ich dieses Buch auch garnicht. Würde aber sagen, daß es für die Zwecke hier zu speziell ist. Beispiele wären aber willkommen.
  • XOR-Absatz: Ich habe es nur in der Literatur gefunden, aber einige Diskussionen scheinen wirklich nicht auf freundschaftlicher Basis abgelaufen zu sein. Für einen Ausbau des Geschichtsteils wäre das sicherlich eine Bereicherung, siehe aber meinen Kommentar oben, zum Ausbau der Geschichte. Für den entsprechenden Absatz will ich vielleicht noch eine Klarstellung einbauen, daß eine nicht-lineare Separierum natürlich mit größeren Modellen möglich ist.
  • Biologisch orientierten Netzwerksimulatoren: Ich muß wirklich sagen, daß mein Wissen in dem Gebiet definitiv beschränkt ist, da ich es nur aus der Anwenderschicht betrachte. Es ging bei mir bisher darum die Modelle lediglich für Mustererkennung u.Ä. zu verwenden. Viele deutschsprachigen Universitäten gehen wahrscheinlich auch nicht viel weiter als eben dies, denn nur in der direkten Anwendung liegt das Geld :). Für die Erweiterung in andere Teilbereiche muß ich mich wohl oder übel auf meine Mitstreiter bei der Wikipedia verlassen. Würde mich über mehr dazu freuen!

--chrislb 问题 14:49, 14. Jun 2006 (CEST)

Zu Matlab: Es gibt eine extra Matlab-Toolbox "Neural Networks", die allerdings dazugekauft werden muß. --chrislb 问题 14:49, 14. Jun 2006 (CEST)
So nur ganz kurz da ich grad weg muss: Ja die Schreibweise meinte ich ersthe aber auch das du die nicht verwenden willst. Und bei Matlab: Nicht wenn die Uni die Toolox besitzt ;-) --Morray noch Fragen? 16:05, 14. Jun 2006 (CEST)

Ich hatte damals schonmal in der Wikipedia:Auskunft gefragt: Die Daten zu logischen Gattern sind ein wenig veraltet: Während Gatter im Nanosekunden-Bereich (10-9) schalten, unter einem Energieverbrauch von 10-6 Joule (Daten von 1991) [...]. Wäre ganz gut, wenn jemand etwas Aktuelles mit Quelle zur Hand hat. --chrislb 问题 11:59, 24. Jun 2006 (CEST)

Wollte nur kurz anmerken: Finde den Artikel recht gut, deckt sich mit den üblichen Formalismen zu formalen (mathematischen) Neuronen. Zu der Frage bezüglich der weiter oben möchte ich anmerken, daß diese Stimuli sinnvollerweise ordinal und metrisch sein sollten. Darky77 01:44, 28. Jun 2006 (CEST)

Sind boolesche Werte nicht nominal? Dementsprechend können Neuronale Netze komplett qualitative und metrische Eingaben verarbeiten. Kommentare? --chrislb 问题 10:46, 29. Jun 2006 (CEST)

Ich habe dem Artikel ein weiteres Beispiel verpasst. Anhand dessen soll gezeigt werden, wie ein Neuron anhand eines Lernprozesses eine Funktion erlernen kann. Es sollte nochmal darüber gelesen werden, da gerade ein Beispiel mE sehr leicht verständlich sein soll. Wenn ansonsten nichts weiteres vorgebracht wird, würde ich den Review um das Wochenende herum schließen. --chrislb 问题 20:01, 3. Jul 2006 (CEST)

Fachlich kann ich leider nichts zum Thema beitragen. Womöglich ist es aber hilfreich zu erfahren, wie der Artikel auf einen Leser wirkt, der sich zuvor noch nicht ernsthaft mit diesem Thema beschäftigt hat. Die Einleitung ist gut und wirkt (vor allem dank der WP-Verlinkungen :) auch verständlich. Der Artikel ist sehr informativ. Aus Sicht eines Fachartikels scheint die Struktur so wie sie jetzt ist durchaus sinnvoll zu sein, allerdings wäre es aus meiner Sicht (also aus der Sicht eines Laien) besser, wenn das Beispiel „Darstellung boolscher Funktionen“ weiter an den Anfang des Artikels gestellt wird. Zumindest mir gingen dadurch mehrere Lampen auf, wobei ich mir durchaus vorstellen kann, dass einige Leser mit ähnlicher „Fachkompetenz“ womöglich gar nicht so weit lesen. Das wäre schade, denn dank dieses Beispiels wirkt der Artikel auch für einen Laien verständlicher und der Text zuvor erscheint weniger Abstrakt. -- NeonZero 23:12, 5. Jul 2006 (CEST)

Danke für den Kommentar, gerade solche Sichtweisen kommen mE oft zu kurz. Zu der Position der Beispiele, die du ansprichst: Ich habe mit letztens auch kurz Gedanken dazu gemacht aber dies erstmal zurück gestellt. Nun habe ich mir die einzelnen Überschriften nochmal angeschaut und muß gestehen, daß die Beispiele in der Form wohl ein sehr schlechtes Bild machen würden, wenn sie relativ nah am Anfang des Artikels stehen sollten, denn beide Beispiele machen starken gebrauch der mathematischen Definition, so daß allein dieser Abschnitt schon davor stehen sollte. Eine einzige Alternative wäre eine Entschärfung des ersten Beispiels, die aber dann eine Aufsplittung mit sich bringt, da ich das zweite Beispiel für nicht verschiebbar halte, es wird denke ich zu kompliziert dazu sein. Die Abschnitte Geschichte und biologische Motivierung stehen auf jeden Fall vor dem harten Kern, so daß dem Leser wenigstens dort ein wenig entgegengekommen wird. Für die Position der Beispiele sehe ich abschließend nicht viel Hoffnung. Vielleicht würde ein zusätzlicher Satz mit Mini-Beispiel in der Einleitung ein wenig Zugewinn geben. Vorschläge wie immer willkommen. --chrislb 问题 23:13, 6. Jul 2006 (CEST)
Ja, ich sehe das Problem. So wie es jetzt ist, lässt es sich wirklich nicht verschieben. Da habe ich offensichtlich nicht richtig nachgedacht. Sorry. -- NeonZero 23:49, 6. Jul 2006 (CEST)

Lesenswert-Kandidatur: Künstliches Neuron (Archivierung Abstimmung 9. Juli bis 16. Juli)

[Quelltext bearbeiten]

Ein künstliches Neuron bildet die Basis für das Modell der künstlichen neuronalen Netze, einem Modell aus der Neuroinformatik, das durch biologische neuronale Netze motiviert ist. Als konnektionistisches Modell bilden sie in einem Netzwerk aus künstlichen Neuronen ein künstliches neuronales Netz und können so beliebig komplexe Funktionen approximieren, Aufgaben erlernen und Probleme lösen, bei denen eine explizite Modellierung schwierig oder unmöglich ist. Beispiele sind die Gesichts- und Spracherkennung.

Der Artikel war bis gerade im Review und hat dort noch einige Änderungen erhalten. Nun möchte ich ihn hier zur Kritik stellen und hoffe auf konstruktive Beiträge, da ich bereit bin, den Artikel weiter auszubauen, auch über die lesenswerten hinaus. --chrislb 问题 12:10, 9. Jul 2006 (CEST)

  • neutral als Hauptautor --chrislb 问题 12:10, 9. Jul 2006 (CEST)
  • Pro wie im Review schon angemerkt: sehr schöner und informativer Artikel --Morray noch Fragen? 20:03, 9. Jul 2006 (CEST)
  • Pro sehr gut -- Thomas M. 21:42, 9. Jul 2006 (CEST)
  • Pro -- NeonZero 23:33, 9. Jul 2006 (CEST)
  • contra Ich finde der Artikel geht relativ speziell auf Perzeptrone ein, die besser in einem eigenen Artikel erwähnt werden, auf andere Neuronenmodelle wie zum Beispiel das RBF-Neuron wird hingegen gar nicht eingegangen. Über den Oma-Test brauchen wir denke ich nicht zu reden, einige Formeln stehen doch etwas alleine dar. Der Graph mit der sigmoiden Funktion ragt bei mir in den Graphen mit der Negation herein und dieser ist dann nicht erkenntbar. --Ixitixel 11:18, 11. Jul 2006 (CEST)
Datei:Darstellungsfehler.jpg
So sieht's beimir aus
Dieser Artikel beschreibt künstliche Neurone wie sie in der Literatur definiert werden. Ausnahmen dazu gibt es natürlich, die mit diesem Modell unverträglich sind (so z. B. die RBF-Netze, SOMs), doch diese werden auch in der Literatur jeweils gesondert behandelt. Ein Hinweis darauf könnte natürlich in den Artikel rein und ich weder mich bemühen wenn etwas mehr Zeit da ist auf die anderen Besonderheiten einzugehen, für einen lesenswerten Artikel sollte dies aber eher nebensächlich sein.
Ich zitiere zudem aus den Kriterien zu lesenswerten Artikeln: „Fachchinesisch wird toleriert, wenn es die Darstellung des Themas erfordert, auch wenn dies die Verständlichkeit für Laien erschwert.“. Deine Darstellungsprobleme kann ich in verschiedenen Browsern nicht nachvollziehen. Ein <br /> (mit "clear:both") an passender Stelle sollte das beheben. Ansonsten bist du eingeladen deine Kritik an den Formeln genauer zu fassen. Grüße --chrislb 问题 12:11, 11. Jul 2006 (CEST)
Habe mal ein Bildschirmphoto gemacht, wie es bei mir aussieht. --Ixitixel 14:40, 11. Jul 2006 (CEST)
Ich habe dir einen Absatz eingebaut. Du hast offenbar an deiner Bildgrößeneinstellung rumgeschraubt, so daß sie relativ groß sind. --chrislb 问题 16:00, 11. Jul 2006 (CEST)
Vielen Dank für das Reparieren, des Designs. Ich habe jetzt mal über den Artikel geschlafen und je länger ich über ihn nachdenke um so schlecher gefällt er mir leider. Tut mir leid, aber der Ansatz gefällt mir nicht. Statt sehr einfache Neuronenmodelle wie die McCulloch-Pitts-Zelle und das Perzeptron zu beschreiben, die im übrigen beide eigenen Artikel haben, in denen sich dann vieles doppelt, sollte ein solcher Artikel vielmehr die immer weitere Abstraktion, von natürlichen Neuronen, die ja auch nicht einheitlich sind zeigen. Dann sollten die Modelle in der Reihenfolge ihres Abstraktionsgrades erwähnt werden also Kompartimentmodell, als das genauste (Warum wird das bislang eigentlich nicht erwähnt?), Hodgkin-Huxley-Modell (Dafür gab's den Nobelpreis, wird bislang im Artikel gar nicht erwähnt.), Kontinuierliches Grundmodell, dann das Diskretes Grundmodell (beide unerwähnt), dann die McCulloch-Pitts-Zelle, als erste künstliche Zelle und dann Perzeptron und RBF-Neuron. So finde ich den Artikel unvolständig und eher auf Perzeptrone fixiert. Tut mir leid, dass ich den Artikel nicht im Review gesehen habe, aber so geht das irgendwie gar nicht. ---Ixitixel 09:13, 12. Jul 2006 (CEST)
Wir haben wohl zwei verschiedene Ansichten was der Artikel leisten soll. Zur Zeit beschreibt der Artikel Modellierungen, die praktisch in großem Rahmen eingesetzt werden oder eingesetzt worden sind. Fakt ist nun, daß Informationen über die von dir genannten Artikeln fehlen, doch die Frage ist ob sie in diesem Artikel gut aufgehoben sind. Daß du den Artikel im Review nicht gefunden hast, ändert wohl nichts an einer inhaltlichen Kritik, die selbstverständlich jederzeit erwünscht ist. Also nochmal, deine Anmerkungen beziehen sich alle auf sehr theoretische Modelle, den Artikel habe ich gestartet um die Modellierung von Modellen wie TDNN, Perzeptron, SRNs... zu beschreiben. Weitere Modelle sollten in der Tat erwähnt werden, aber mir persönlich würde eine kurze Beschreibung ausreichen, mit Verweis auf einen anderen Artikel. --chrislb 问题 10:18, 12. Jul 2006 (CEST)
Wir können nochmal später darüber reden, wie das gemacht werden kann, trotzdem bin ich der Meinung, daß deine Punkte eine sehr hohe Anforderung für einen Lesenswerten Artikel sind. --chrislb 问题 19:20, 14. Jul 2006 (CEST)
  • Pro Sehr verdienstvolle Arbeit. Artikel zu neuronalen Netzen sind in Wikipedia bisher nicht so sehr liebevoll entwickelt worden. Die Arbeit des Hauptautors ist unbedingt zu unterstützen, auch wenn ich nicht so viel beitragen kann. Ob ich ein Kapitel über den GENESIS-Simulator hinkriege weiß ich nicht... Gruß -- Andreas Werle d·c·b 21:55, 13. Jul 2006 (CEST)
  • neutral Hätte es lieber gesehen, wenn der Inhalt im Artikel Künstliches neuronales Netz stände. Schließlich wird ein Neuron jeweils so modeliert wie es gebraucht wird und die Leistung des Rechners es zuläßt. Wer weiß, vielleicht simulieren wir eines Tages nicht nur einige der elektrischen Aspekte eines Neurons (echte Neuronen haben ein dynamisches Verhalten), sondern auch seine bio-chemischen Aspekte. Ich könnte mir vorstellen, dass das für einfache Tiermodelle bereits geschehen ist. --Zahnstein 11:55, 14. Jul 2006 (CEST)
Die Abgrenzung ist schwierig, aber ich hoffe trotzdem, daß sie gut gewählt ist. Einen Ausbau der Geschichte habe ich im Review abgelehnt, da die umfassende Geschichte nach KNN gehört. Ein gesonderter Artikel bietet sich an, da a) der Artikel KNN schon groß genug wird, ob der Informationen, b) es auch andere Modelle zur Modellierung gibt, siehe Ixitixel oben, die noch im Artikel erwähnt werden sollten, wenn vielleicht auch ausgelagert und c) KNN den Schwerpunkt noch mehr auf Maschinelles Lernen legen (siehe dualen Artikel Neuronale Netze). Bin aber zu einer Diskussion bereit. --chrislb 问题 19:20, 14. Jul 2006 (CEST)

Anmerkung zu folgenden Zeilen:

"Jedoch zeigen die Kritiker Marvin Minsky und Seymour Papert 1969, dass ein einstufiges Perzeptron eine XOR-Verknüpfung nicht repräsentieren kann, weil die XOR-Funktion nicht linear separierbar (linear trennbar) ist, erst spätere Modelle können diesen Missstand beheben."

Die Argumentation von M. und P. ist viel tiefgreifender, die gegebene Darstellung spiegelt nicht wirklich das wieder woran sich die Autoren gestoßen haben. Sollte überarbeitet werden.

w0 = - θ???

[Quelltext bearbeiten]

Im Abschnitt "Erlernen eines Neurons" heißt es in der ersten Tabelle, erstes Element w0 ( = − θ). Musste es nicht w0 ( = θ) heißen, da das minus ja schon in x0 = -1 steckt?

Du hast recht, ich habe es korrigiert. --Adlange 14:12, 8. Mär. 2010 (CET)Beantworten

Richtigkeit

[Quelltext bearbeiten]

Ich habe eine Anmerkung zur Funktion, welche den net input eines Neurons berechnet. Diese Funktion wird in diesem Artikel als Uebertragungsfunktion bezeichnet. Mir ist diese Funktion auch unter dem Namen Propagierungsfunktion bekannt. Bei der Suche nach dem englischen Wort fuer Propagierungsfunktion ist mir folgendes aufgefallen: Im Englischen wird die Aktivierungsfunktion eines Neurons auch transfer function bezeichnet. Eine transfer function ist jedoch im deutschen als Uebertragungsfunktion bekannt. Demnach muesste die Uebertragungsfunktion eines Neurons die Aktivierungsfunktion sein und nicht die Propagierungsfunktion, wie in diesem Artikel angegeben.

--Aurote 10:03, 3. Jan. 2008 (CET)Beantworten

Möglicherweise wird dieser Begriff hier wie auch woanders so oft in verschiedenen Ausprägungen verwendet. Wenn du ein wenig deutsche Literatur angeben kannst, wo dies anders gehandhabt wird kannst du das gerne überarbeiten. Am besten wäre der Hinweis auf die verschiedenen Nennungen, wenn sie denn existieren. --chrislb disk 12:56, 3. Jan. 2008 (CET)Beantworten

Verständlichkeit

[Quelltext bearbeiten]

Hallo zusammen,

ich habe den Artikel gelesen. Ich habe den Artikel verstanden. Jedoch ist der Abschnitt "5.2 Einlernen eines Neuron" absolut unverständlich. Ich habe mehrere Male versucht, ihn nachzuvollziehen, was mir immer noch nicht gelungen ist. Für einen Einsteiger in die Thematik ist die Schreibweise zu direkt im Thema bzw. setzt zu viel Wissen voraus, das nicht aus dem Restartikel hervorkommt. Ich würde mich freuen, wenn dieser Abschnitt umformuliert würde, sodass er auch für mich und andere Anfänger zu verstehen ist. 212.64.228.100 14:16, 23. Jan. 2009 (CET)Beantworten

"Unverständlich" ist immer eine etwas schwer zu fassende Kritik und schwer zu verbessern. Was genau war dir als Laie unklar? Welche Begriffe, Konzepte - was hast du verstanden? Wenn du das schreibst, hilft es, den Artikel zu verbessern. --Minihaa (Diskussion) 10:54, 11. Mai 2013 (CEST)Beantworten

Technische Basis

[Quelltext bearbeiten]

Beim Lesen des Artikels hat sich mir eine Frage gestellt: Wie ist die technische Basis? Wird das ganze auf einem gewöhnlichen Computer simuliert? Oder baut man extra Schaltkreise dafür, die einem künstlichen Neuron entsprechen? Oder noch ganz anders? --Minihaa (Diskussion) 10:54, 11. Mai 2013 (CEST)Beantworten

Mathematische Definition

[Quelltext bearbeiten]

Im Artikel steht:

Wenn ich es nicht übersehen habe wird werden noch beschrieben oder später verwendet. Sollte die Formel nicht

sein?

mit im "Dabei ist":

Ausgabe oder Aktivierung (englisch output)
Aktivierungsfunktion

die Verwendung von 3 verschiedenen Symbolen: , und für die Netzeingabe finde ich auch verwirrend und sollte aus meiner Sicht vereinheitlicht werden. --Schrauber5 (Diskussion) 18:20, 24. Jul. 2020 (CEST)Beantworten

Nach Zustimmung entsprechend geändert --Schrauber5 (Diskussion) 01:22, 26. Jul. 2020 (CEST)Beantworten
Meiner Meinung nach ist dieser Abschnitt so noch immer widersprüchlich.
  1. "Zuerst wird die Aktivierung v (in der Abbildung oben als "Netzeingabe" oder "net" bezeichnet) ..." -> Die Netzeingabe ist in der besagten Abbildung nur die gewichtete Summe und beinhaltet den Schwellenwert nicht. Dieser wirkt in der Abbildung direkt auf die Aktivierungsfunktion. In den Definitionen, die ich kenne, wird der Schwellenwert zur Netzeingabe gezählt, was für diesen Abschnitt und gegen die Abbildung spricht.
  2. Warum wird hier überhaupt der Begriff "Aktivierung" statt "Netzeingabe" für v eingeführt, wenn im restlichen Artikel unter "Aktivierung" immer der Output des künstlichen Neurons verstanden wird?
--Robrobrobin (Diskussion) 16:58, 29. Apr. 2022 (CEST)Beantworten
[Quelltext bearbeiten]

Hallo zusammen,

Ich habe ein interaktives JupyterLite-Notebook zu diesem Thema implementiert, siehe hier: https://ronnystandtke.github.io/perceptron/lab?path=Perceptron.ipynb

Wäre es in Ordnung, das im Bereich Weblinks zu ergänzen? --Rost74 (Diskussion) 12:00, 22. Dez. 2023 (CET)Beantworten