Diskussion:Künstliches neuronales Netz

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 7 Monaten von Tensorproduct in Abschnitt Stichpunkte für Laienverständlichkeit
Zur Navigation springen Zur Suche springen
Zum Archiv
Wie wird ein Archiv angelegt?

Schwer verständlicher Satz

[Quelltext bearbeiten]
Durch Anwendung statistischer Testverfahren lassen sich jedoch 'Überanpassungseffekte' im Regelfall vermeiden. Hierdurch ist die in der Praxis oft noch anzutreffende Strategie des 'Ausprobierens' verschiedener Netzwerkstrukturen nicht mehr nötig und entsprechend als ineffizient einzustufen.

Diese beiden Saetze (bei "Schwierigkeiten") finde ich schwer verstaendlich: Welche Tests sind genau gemeint und wie helfen die Tests, das Ausprobieren zu umgehen? Vielleicht kann der Autor noch 1-2 erklaerende Saetze ergaenzen. Gruesse, Matthias

Ich hab' die beiden Saetze herausgenommen. Wenn jemand ein etabliertes, statistisch fundiertes Verfahren (Fachzeitschrift, Fachbuch) nennen kann, mit dem man die Netzwerkarchitektur ohne Ausprobieren findet, die Saetze mit den notwendigen Referenzen bitte wieder einstellen. Gruss, MH 09:19, 1. Okt 2004 (CEST)

Hi Leute. Also wenn ich das richtig sehe, geht es um die Frage "Wieviele Neuronen bzw. welche Netztopologie" braucht man für ein bestimmtes Problem? Das ist so nämlich gar nicht richtig gefragt. Erstmal muss man sich für EIN Netz entscheiden (RBF-Netz, Perzeptron, ...). Teilweise geht das schon anhand von "Totschlagskriterien" (bei einer hohen Eingabedimension die voll abgedeckt werden soll fällt das RBF-netz komplett weg, bei einer hohen ausgabedimension ist das lernen mit dem Perceptron sehr langsam, usw, wer hierfür ein Beispiel will schaue sich im "kleinen Überblick über NN" das RBFkapitel an. Das mal als erstes. Dann stellt sich die Frage: Wieviele Ebenen (bei RBF egal) und dann wieviele Neuronen. So und jetz ist es so dass man das recht ungenau abschätzen kann (die zahl der inneren Neurone sollte korrespondieren mit der Anzahl der Freiheitsgrade der Funktion die man Approximieren will). Aber das ist immerhin schon etwas. Da man seine Funktion aber in aller regel nicht genau kennt (Sonst brauch man kein NN) bestehen mehr fehler beim Grundwissen dass man für die Abschätzung braucht als in der Abschätzung selbst. Also ist der Minimalwert für die Neuronenanzahl meistens "Erfahrungsbauchgefühl" und von da robbt man sich höher. Die oben angesprochenen "Überanpassungseffekte lassen sich GANZ einfahc ausschließen: Man beobachtet den Fehler den das Netz durch die Lernzyklen macht (der natürlich sinken sollte). Man trainiert das Netz aber nur auf einem TEIL der Trainingsdaten, während man den Rest der Trainingsdaten aber mit zum Prüfen verwendet. Man Prüft also auch datenpunkte ab, die nicht explizit trainiert wurden. So sieht man, ob das Netz nur auswändig lernt (dann ist es nämlich auf den gelernten punkten gut und auf dem rest schlecht). Eigentlich unterteilt man sogar sinnvollerweise die Trainingsdaten in drei teile, siehe hierzu auch den "Überblick", oder bei vorhanden sein das Buch von Andreas Zell (ich glaube der schreibt auch was darüber) aber der Nachteil ist natürlich dass man seinem Netz Informationen vorenthält. Trotzdem klappt es meistens sehr gut. RICHTIGES Training dass auch die Struktur optimiert gibt es z.B. durch Evolutionäre Algorihmen, die "Netzoptimierung mit Evolution" ist hierbei aber ein Thema für sich. Es gibt aber funktionierende Verfahren die das können, soviel ist sicher. Bitte um viele Meinungen :-) --Südstern

Eine sehr einfache und schnelle Variante ist der Vergleich der Menge der Trainingsmuster mit der Anzahl von Freiheitsgraden im Netz. Anschaulich ist das noch bei Netzen mit nur einem Ausgang und zwei Eingängen, bei denen kann man sich die Menge der Trainingsmuster noch als Anzahl von Punkten vorstellen, durch die eine Kurve gelegt wird. Hat die Kurve mehr Parameter als es Punkte gibt, so gibt es unendlich viele Lösungen. Hat also das Netz mehr Freiheitsgrade (trainierbare Gewichte) als es Trainingsmuster gibt, so gibt es unendlich viele Lösungen, die aber alle die Generalisierungseigenschaft (ähnlicher Output bei ähnlichem Input) NICHT besitzen. Solange das Verhältnis von Trainingsmuster zu Freiheitsgeraden deutlich größer als eins ist (am besten um Größenordnungen größer also 10 oder 100) ist man auf jeden fall auf der sicheren Seite. Eine weitere Möglichkeit um festzustellen ob eine Erhöhung der Freiheitsgrade eine Verbesserung bringen kann ist die Bestimmung der Streuung in den Trainingsmustern. Haben zwei Muster bei gleichem oder sehr ähnlichem Eingang einen deutlich anderen Ausgang, so haben die Trainingsmuster eine Streuung. Diese Streuung kann man berechnen, z.b. indem man von Trainingsmsutern mit gleichem Eingang den Mittelwert der Ausgänge bestimmt und über die Summe der Fehlerquadrate geht. der Fehler ist dabei die Abweichungen der Muster vom Mittelwert. Da das Netze für eine Kombination von Eingängen nur einen Ausgang ausgeben kann und dieser im besten Falle im Mittelwert der Muster liegt, kann das Netz nie besser als die Streuung der Trainingsdaten sein. Somit hat man einen absolut besten Wert, der einem sagt wann man mit dem Training aufhören kann. Trainiert man mit so vielen Mustern daß es Streuung gibt, so ist das Training quasi überbestimmt und das vergleichen mit vorher abgeteilten Daten kann entfallen, da von der anderen Testmenge keine statistisch anderen eigenschaften zu erwarten sind, d.h. es sollte dieselbe streuung auftreten. Deedl 12:15, 4. Okt. 2007 (CEST)Beantworten

Anwendungen

[Quelltext bearbeiten]

Den Teil, in dem Bereiche genannt werden, die für KNN'S zu komplex sind, finde ich irreführend. Es wird suggeriert, dass z.B. das Problem des Bestimmens sehr großer Primzahlen oder das Faktorisieren nicht durch KNN's gelöst werden kann (laut Text aufgrund ihrer Natur) aber es andere effiziente Lösungsverfahren gibt. Ver- und Entschlüsselung wird in diesem Zusammenhang auch genannt, lässt sich aber im Grunde auch auf die vorherigen beiden zurückführen. Diese Probleme können überhaupt nicht effizient gelöst werden, da sie zu den NP-vollständigen Problemen gehören. D.h. es gibt kein bekanntes Lösungsverfahren, dass diese Probleme in polynomineller Zeit lösen kann. Dazu zählen eben auch KNN's. Im Text klingt das so, als gäbe es Lösungsverfahren, aber KNN's sind nicht geeignet ("aufgrund ihrer Natur"). In der angegebenen Quelle heißt es lediglich: "There are also many other important problems that are so difficult that a neural network will be unable to learn them without memorizing the entire training set, such as: [...]". (nicht signierter Beitrag von 141.56.66.71 (Diskussion) 14:06, 2. Dez. 2015 (CET))Beantworten

Linkdiskussion

[Quelltext bearbeiten]

Wie von Chrislb angeregt möchte ich gerne die Linkdiskussion anstoßen über das PDF Ein kleiner überblick über N.N.". Ich versuche das mal auf formale art und weise (hab grad nich zuviel zeit). Also drei punkte:

  • Ich (persönlich) kenne kein Skript mit ähnlichem Illustrationsgrad und es hat mir bei einer seminarausarbeitung mehr als teure bücher geholfen. Dazu objektiv: Das script wird auch von einigen institutsseiten zum Thema mittlerweile verlinkt und ist auch grad wieder geupdated worden (ich hab mich also informiert bevor ich den link wieder reingetan habe).
  • Ich habe das linklöschen mit begründung "Script ist total schlecht" gesehen, aber nichts auf der diskussionsseite. So etwas ist meiner meinung nach irgendeine persönliche Abneigung, aber nicht für Wikipedia geeignet. Ich lösche auch nicht jedes Buch mit dem ich nicht zurecht komme.
  • Begründung zur Linkkürzung: Drastisch gesagt, der Autor ist egal solange das skript gut ist. Daher habe ich den aus dem link rausgenommen und auch den rest etwas gestrafft.

Mich würde freuen wenn diese Änderungen angenommen würden :-)

Hi Wikiler. Ich geb hierzu jetzt auch mal meinen senf, da ich wochen mit dem teil gearbeitet hab. Das script zielt laut vorwort auf Einsteiger und trifft damit exakt die Wikipediazielgruppe. Es hat in vieler hinsicht Bilderbuchcharakter (viele Abbildungen / Randhinweise) und geht nicht in alle themen tief rein (ausser u.U. Backpropagation und Perzeptrone, hier ist es recht ausführlich). Aber grad das ist gut und kann gut daran verstehen wie die einzelnen Arten Netze funktionieren, auch durch viel umgangssprachliche formulierungen.
Fazit: Studis, die Seminararbeiten schreiben oder einer Vorlesung zum Thema folgen müssen, sind mit dem Script aber gut und gratis bedient (wie ich und andere in einer Lehrveranstaltung zum Thema Soft-Computing Uni Rostock, Dozent hatte das Script auf seiner Homepage gelinkt).
@Vorredner: "Schlecht" ist es definitiv nicht. Dass die Abbildungen und der text mühe gekostet haben sieht man und wenn es stimmt dass das auf englisch übersetzt wird (steht auf der HP) find ich das auch gut. Solang es gratis bleibt. Wenns nach mir geht: Rein damit.
-- Südstern
weil hier jetzt lange keiner mehr mitdiskutiert hat aber einige gute Argumente gefallen sind poste ich jetzt einfach mal nen Linkvorschlag den ich in bald in den Artikel an sich setze wenn keiner akademische gegenargumente bringt.
Ein kleiner Überblick über Neuronale Netze - Grundlagenskript zu zahlreichen Arten / Lernprinzipien Neuronaler Netze, viele Abbildungen, einfach geschrieben, ca. 200 Seiten (PDF).
-- Südstern
Link in leicht veränderter form ist jetzt gepostet. Ganz oben auf der Diskussionsseite ist jetzt schon seit Ewigkeiten der Absatz über Statistische tests. Das ist gar nicht so schwer zu erklären, ich werde mich dem mal annehmen.
-- Südstern

Biologische Motivation

[Quelltext bearbeiten]

In dem abschnitt wird gar nicht klar worum es geht. Ich denke der Autor wollte betonen, das die Informationsverarbeitung im Hirn hochgradig parallel ist und ein KNN auf einem Rechner nur sequentiell simuliert wird. Das ist zwar völlig richtig, aber deplatziert, da es keine biologische Motivation beschreibt. Vielleicht wäre hier ein Abschnitt "Implementierung und Simulation von KNNs" angebracht. gruesse, Johannes (nicht signierter Beitrag von 83.216.234.177 (Diskussion) 10:58, 28. Aug. 2007)

Bestärkendes Lernen - Reinformcement lernen?

[Quelltext bearbeiten]

Beim bestärkenden Lernen wird dem neuronalen Netz ein Eingangsmuster gegeben, und das Netz gibt dafür ein Ausgangsmuster aus. Dieses wird dann als richtig oder falsch bewertet. Entsprechend ändert das Netz seine Konfiguration.

Dieser Text scheint mir sowas wie ein autoassoziatives Netz zu beschreiben. Es kann natürlich sein das bestärkendes Lernen durch sowas implementiert wird, es beschreibt aber auf keinen Fall den Kern der Sache.

Literatur

[Quelltext bearbeiten]

Zur Literatur eines Artikels sollte sämtliches aufgelistet werden, was zur Erweiterung und/oder näheren Erläuterung des Artikels dient, vor allem neuere Literatur.
Außerdem sehe ich das wiederholte Löschen meiner Ergänzung durch Chrislb, unter immer neuen Vorwänden, als ziemlich anmaßend an. Erst hieß es, die Literatur ist nicht erhältlich und als Sie merkten, dass sie dies sehr wohl ist (amazon.de, lob.de, buchhandel.de usw.), musste sie nun auch in einer Universitätsbibliotheken zu finden sein. Wozu? Hier wahlweise Literatur zu löschen, nur weil Sie sie nicht kostenlos an ihrer Uni verschlingen können ist peinlich!
Selbstverständlich ist diese Ergänzung der Diskussion nur von temporärer Natur und kann gerne von Chrislb entfernt werden, sofern er in Zukunft die Dreistigkeit unterlässt die Ergänzungen im Unterpunkt Literatur zu löschen.
Mit dem erneuten Eingeben der Literatur warte ich noch bis morgen Abend, falls (wieder Erwarten) tatsächlich eine berechtigte Kritik gegen die Literaturergänzung kommt. -- 19:39, 13.04.2007

Hallo, nett, dass du dich auf der Diskussionsseite meldest. Vielleicht können wir so zu einer Lösung kommen.
Der Grund, warum ich die Literaturnennung entferne ist, dass sie zurzeit weder einfach überprüfbar ist, noch dargelegt wurde, warum sie für die Erweiterung des Artikels wichtig ist. Ich habe mich bereits darum gekümmert die Monographie in meiner Bibliothek über Fernleihe zu bestellen, doch wurde mir gesagt, dass das Buch nirgendwo erhältlich ist. Da wir durch eine Nennung hier aber dem Leser empfehlen das Buch zu lesen, finde ich diesen Zustand ungünstig.
Mein Vorschlag wäre also, ein paar Wochen zu warten, bis das Buch erhältlich ist, und dann die Angabe einzustellen, wenn auch von andrer Seite (auch von meiner) das Werk überprüfbar ist. Sollte das Werk den Inhalt des Artikels gut begleiten, so würde ich mich freuen die Angabe hier zu sehen. --chrislb 问题 20:26, 13. Apr. 2007 (CEST)Beantworten
Ja das hört sich doch schon ganz anders an, vor allem weil das der eigentliche Grund für mich war, die Literatur zu ergänzen. Ich habe viele Bücher zu dem Thema gelesen und dieses gefällt mir besonders. Endlich mal alles auf den Punkt gebracht, ohne lang herum zu reden. Da ist es ja logisch, dass ich dieses Buch, gerade weil es neu ist, gerne anderen Leuten empfehlen würde, wozu sich Wikipedia doch sehr anbietet. Wenn es den Artikel nicht sinnvoll ergänzen würde, hätte ich es auch nicht reingestellt. Jedoch bin ich zugegeben niemand der sich in Biobliotheken rumtreibt, ich durchstöber lieber das Netz. Woher soll ich denn nun wissen ab wann das Buch in einer Bibliothek erhältlich ist? Kann man das irgendwo (im Netz) nachlesen?
PS: Entschuldige bitte meinen vorherigen Ton, ich habe deine ziemlich kurzen Angaben zur löschung wohl etwas missinterpretiert, tut mir leid.
Ich werde einfach nochmal versuchen an das Buch heranzukommen (~ 2 Wochen). Vielleicht ist diese Überprüfung überflüssig, aber ich interessiere mich nun auch für das Thema und so ist das schnell gemacht. Versteh bitte diesen Vorbehalt, wir erleben hier mittlerweile viele Literatureintragungen, die vom Autor selbst vorgenommen werden und nur den Zweck verfolgen, den Verkauf anzukurbeln. --chrislb 问题 18:04, 14. Apr. 2007 (CEST)Beantworten
Ja ich kann mir vorstellen, dass sowas sehr nervig ist; verstehe jetzt auch deine Reaktion besser. Bin gespannt was bei deiner Überprüfung rauskommt. Bis bald. -- 20.04.2007
[Quelltext bearbeiten]

Der hier gesetzte Link zum Skriptum von D. Kriesel ist ungültig. Der Neue Link ist

  • Ein kleiner Überblick über Neuronale Netze (D. Kriesel) - Grösstes kostenloses Skriptum (knapp 200 Seiten, PDF, 4.6MB) in Deutsch zu Neuronalen Netzen. Sehr reich Illustriert und anschaulich. Kapitel über Perceptrons, Backpropagation, Radiale Basisfunktionen, Rückgekoppelte Netze, Self Organizing Maps, Hopfield Netze u.v.m.

Würde Wikisearcher BITTE aufhören hier Leute als Linkspammer zu bezeichnen die Tote links in lebende umwandeln, oder bitte wenigstens das Ziel des Links kurz Lesen. Danke. (nicht signierter Beitrag von 212.201.72.253 (Diskussion) )

Lies Dir bitte den Artikel WP:WEB durch. Danke. --Wikisearcher 01:49, 9. Mär. 2007 (CET)Beantworten

Zum Abschnitt "Ausblick"

[Quelltext bearbeiten]

Die gängige Softwareimplemtierung der künstliche neuronale Netze beschränkt die Anzahl der Neuronen auf einige hundert Neuronen, weil das Traininieren des KNNs viel Zeit in Anspruch nimmt. Hardwarebasierte Lösungen besitzen derzeit eine Neuronenanzahl von 30.000 (Zum Vergleich eine Schnecke besitzt 20.000). Bis KNNe die Dimension des menschlichen Gehirns, das über 20 Milliarden Neuronen besitzt, erreicht, werden noch Jahrzehnte vergehen.

Dieser Abschnitt ist Quatsch, da er voraussetzt, dass künstliche neuronale Netze und neuronale Netze in Organismen qualitativ gleichzusetzen sind. Dies ist aber keineswegs der Fall - die gängigen künstlichen Netzwerkmodelle lehnen sich lediglich an die Biologie an, funktionieren jedoch nicht analog dazu. So ist bspw. das Zeitverhalten höchst unterschiedlich. --zeno 19:06, 3. Jan 2005 (CET)

Letztlich ist das Zeitverhalten bei langsamen Prozessen (wie die Simulation einer Cyberschnecke) uninteressant.

Da wir "nur" um den Faktor 10^6 vom menschlichen Gehirn bei einem HW-ANN entfernt sind und nach Moores-Law die HW um 2^n wächst, dürften wir in weniger als einer Humangeneration fähig sein, ein HW-ANN zu bauen, das dem menschlichen Gehirn auch bei langsamen Prozessen (wie z.B. Forschung und Entwicklung) ebenbürtig ist. Bei schnellen Prozessen (Gesichtserkennung in Menschenmassen und Abgleich mit Fahndungsfotos) dürfte schon in 10 Jahren mit Erfolgen zu rechnen sein. Doch gerade diese ersten Anwendungen (Gesichtserkennung in Menschenmassen) kann zu totalitären Regimen (Totalüberwachung erstmals technisch möglich) führen. Drohnen mit ANN-Backbone können schon jetzt Menschengruppen >5 Personen minutenschnell detektieren. Und dies geschah nicht nur im Labor, sondern im praktischen Einsatz in vielen Staaten Südeuropas (Lockdown). --2A02:3037:409:2BC1:2:2:E4C3:A1CF 09:07, 23. Mai 2021 (CEST)Beantworten

Neuroinformatik

[Quelltext bearbeiten]

Benutzer:Zenogantner hat meine Änderungen an dem Artikel revertiert, ich habe mir erlaubt diese wieder zu revertieren, möchte hierüber hier aber eine Diskussion beginnen:

Im wesentilichen geht es um den Satz: Künstliche neuronale Netze sind die Grundlage der Neuroinformatik

Zenogantner schreibt dazu der begriff Neuroinformatik sei nicht etabliert:

An mindestens den folgenden deutschen Universitäten gibt es Abteilungen, Institute oder Arbeitsgruppen die sich neuroinformatik nennen:

Es gibt X Bücher und minestens eine zeitschrift die das Wort Neuroinformatik im Titel verwenden - ich denke das Wort ist also durchaus etabliert und stellt einen Forschungsbereich der Informatik dar, das rechtfertigt in meiner Meinung hier darauf hinzuweisen und eine entsprechende Kategorie zu führen. --Ixitixel

Trotzdem ist es falsch, zu behaupten, KNNs seien die Grundlage der Neuroinformatik. Lebewesen sind nicht die Grundlage der Biologie, und Himmelskörper sind nicht die Grundlage der Astronomie. und Sie sind ihr prinzipieller Forschungsgegenstand.
Was aber nicht heißt, dass KNNs in anderen Gebieten nicht auch relevant wären.
Die Bezeichnung "Neuroinformatik" existiert und wird verwendet, daran besteht kein Zweifel, es gibt aber trotzdem viele Forscher, die sich mit konnektionistischen Modellen beschäftigen und ihr Feld nicht als Neuroinformatik bezeichnen. Insofern ist die Bezeichnung nicht etabliert, v.a. im Unterschied zu Bezeichnungen wie "Maschinelles Lernen", "Künstliche Intelligenz", "Kognitionswissenschaft", "Regelungstechnik", "Robotik", "Psycholinguistik", "Mustererkennung" (in allen bisher genannten Feldern kommen auch KNNs zur Anwendung, sie sollten dann auch nicht verschwiegen werden), "Bioinformatik", "Wirtschaftsinformatik", ...
Deswegen finde ich es unpassend, die Neuroinformatik im Einleitungssatz so herauszustellen.
Mit freundlichen Grüßen, --zeno 22:25, 5. Jan 2005 (CET)
Wikipedia Artikel zu Grundlage:
Grundlage ist das, was eine Sache, eine Beziehung als unveräußerliches Fundament trägt
Nun ja, ob künstliche neuronale Netze die Neuroinformatik als unveräußerliches Fundament tragen, darüber läßt sich sicher streiten, ich würde diese Frage bejaen, kann deine Zweifel aber verstehen. Ich habe die Formulierung hin zu prinzipieller Forschungsgegenstand analog zu Deinem Vorschlag geändert, auch habe ich die Bedeutung der KNNs für die KI noch weiter herausgehoben.
Ich weiß sehrwohl, daß KNNs mittlerweile in vielen Forschungsbereichen eine Rolle spielen, aber in keinem der von Dir genanten Bereiche sind sie meines Wissens nach prinzipieller Forschungsgegenstand oder gar Grundlage, deswegen empfinde ich es als legitim die Neuroinformatik herauszustellen, es ist nunmal die Wissenschaft der KNNs.
Ich hoffe, der Artikel ist so für Dich akzeptabler
Mit freundlichen Grüßen --Ixitixel 02:53, 6. Jan 2005 (CET)
Hallo, Danke erst einmal für die Veränderungen.
Trotzdem bleibe einige Zweifel bei mir.
Das Konzept der KNNs existiert schon wesentlich länger als das Feld der Neuroinformatik, eine 1:1-Zuordnung "Neuroinformatik" - "KNNs" analog zu "Biologie" - "Lebewesen" halte ich für sehr bedenklich, weil meiner Meinung nach die (prinzipielle, Grundlagen-) Forschung über KNNs nicht nur von Wissenschaftlern getragen wird/wurde, die sich selbst als "Neuroinformatiker" bezeichnen/bezeichneten.
--zeno 11:32, 6. Jan 2005 (CET)
Hallo,
Ich sehe Deine Zweifel so nicht: Natürlich sind zum Beispiel die meisten Einzeller, und damit auch Ihr Konzept, wesentlich älter als die Biologie die sich mit Ihnen befaßt. Und wenn jetzt einige berühmte Physiker beschlössen über diese Einzeller zu forschen und etwas über eben diese Einzeller herausfänden, würden sie dennoch zur Biologie gehören, auch wenn die Forschung über diesen Einzeller ja nun nicht "nur von Wissenschaftlern getragen wird/wurde, die sich selbst als Biologen bezeichnen/bezeichneten."
Die Neuroinformatik ist nunmal die Wissenschaft der Künstlichen Neuronalen Netzte und deswegen finde ich es richtig, dies auch im KNN Artikel zu erwähnen.
--Ixitixel 17:07, 7. Jan 2005 (CET)
Der Vergleich hinkt. "Biologie" als Bezeichnung ist wesentlich etablierter als "Neuroinformatik". --zeno 14:25, 8. Jan 2005 (CET)
Das mit dem etabliert ist IMO kein Argument - z.B. die Uni Ulm bietet Neuroinformatik als Vertiefungsgebiet im Informatikstudium an. Dann steht auf dem Diplomzeugnis "Vertiefungsgebiet Neuroinformatik". Wie das an den anderen Unis ist weiß ich nicht, aber scheinbar gibt es eine ganze Reihe Unis an denen ähnliches geht. Die NI ist natürlich eine junge Wissenschaft. Aber jede Wissenschaft war einmal jung - und das sollte doch kein Hindernis sein sich mit ihr zu befassen oder auf sie zu verweisen.
Ich habe Neuroinformatik studiert. Es gibt in Ulm auch eine KI Abteilung - da gab es aber noch nie Streit oder ähnliches, an den Stellen wo sich unsere Forschungsbereiche treffen, arbeiten wie zusammen, und im Großteil unserer Aufgaben treffen sich die beiden Abteilungen nicht. Du scheinst auch KI zu amchen und zwar an einer Uni die keine NI hat. Da ist es klar, das Aufgaben die in Ulm ven der NI erledigt werden, von der KI miterledigt werden, das bedeutet aber nicht das die NI
a) nicht etabliert ist
b) keine Existenzberechtigung hat
oder man c) nicht auf sie verwiesen werden braucht.
--Ixitixel 19:08, 10. Jan 2005 (CET)

Resilient, nicht Resilent

[Quelltext bearbeiten]

Die Bezeichnung des Lernferfahrens RProp lautet korrekterweise Resilient, nicht Resilent. Vergl.: Riedmiller "RProp - a fast adaptive lerning algorithm". Ich habe versucht den Artikel zu verschieben, aber leider scheine ich noch nicht die benötigten Rechte dafür zu haben. Bitte korrigiert das.

Aktueller Stand (Stand Sommer 2006)

[Quelltext bearbeiten]

Ich finde dieser Teil des Artikels KNN gehört icht in eine Enzyklopädie, außerdem ist er unpräzise formuliert. Es giebt ebenso moderne Reports des Technology Rewiews, in denen vermerkt wird, dass wir heute in der Lage sind ein bis zwei Neurone mit all ihren Elektrochemischen Vorgängen zu simulieren. Es handelt sich also bei den Soft- und Hardware Simulierten Neuronen offensichtlich um triviale McCullochPitts Neuronen. Diese werden dann aber direkt den Neuronen einer Schnecke gegenübergestellt.

Diese und andere Spekulationen sollten besser der Tagespresse überlassen werden. Darum lösche ich den Teil Stand Sommer 2006.--Sanches 12:23, 16. Okt. 2006 (CEST)Beantworten

Ich glaube bei diesem Artikel hast du freie Hand. Er ist noch meilenweit von einem passablen Zustand entfernt. --chrislb 问题 15:42, 16. Okt. 2006 (CEST)Beantworten

Lernen?

[Quelltext bearbeiten]

Da ich ein newbi auf dem Gebiet bin habe ich eine Sache nicht so ganz verstanden. Der Satz:

"Nach der Konstruktion eines Netzes folgt die Trainingsphase, in der das Netz "lernt"."

Besteht dieses lernen aus purem "try and error" wo beliebige Werte ausgetauscht werden,oder werden bei einer "Verschlechterung" des Resultats auf die alten Werte zurueckgegriffen, also eine Art evolutionaeres lernen oder gibt es bestimmte Algorithmen oder was versteht man unter dem Begriff lernen in diesem Zusammenhang ueberhaupt???

mfg -- Florian K.

Da ist die Wikipedia zur Zeit etwas mangelhaft. Ich denke ein gutes Buch wird einiges mehr dazu sagen können. Künstliches Neuron beinhaltet ein "einfaches" Beispiel, wo ein Lernen stattfindet. Dort wird aber nur ein Verfahren aus vielen verwendet. Grüße --chrislb 问题 15:02, 24. Mär. 2007 (CET)Beantworten
Das Netz aus den Neuronen "lernt", indem Eingangs- und dazugehöriges Ausgangsmuster in einen "Lernalgorithmus", z.B. den im Artikel erwähnten Backpropagation-Algorithmus gesteckt werden. Dieser bestimmt daraus neue Gewichtungen für die Verbindungen zwischen den Neuronen. Diese werden für die nachfolgenden Lernschritte benutzt. Mit der Zeit ergibt sich dann die gewünschte Abbildung von einem Eingangs- in ein bestimmtes Ausgangsmuster.
Interessant wird es, wenn man mehrere Eingangsmuster mit zugehörigen Ausgangsmustern gleichzeitig trainiert, und das neuronale Netz nach dieser Trainingsphase dann leicht abweichende Eingangsmuster trotzdem den richtigen Ausgangsmustern zuordnen soll.
Trotzdem: Mehr als einen Überblick kann ein Lexikon wie Wikipedia nicht geben. Wenn man den richtigen Dreh erst noch finden muss, braucht man ein Lehrbuch. -- Janka 21:14, 24. Mär. 2007 (CET)Beantworten

Hebbsche Lernregel (un)überwachtes Lernen

[Quelltext bearbeiten]

In der alten Version stand die Hebbsche Lernregel in der Gruppe des überwachten Lernens. Dies widerspricht jedoch dem gesund Menschenverstand(und nach dem was ich im Studium gelernt habe). Die Hebbsche Lerneregel besagt doch, daß das Gewicht zwischen zwei Neuronen dann verstärkt wird, wenn beide gleichzeitig aktiv sind. Da hier kein Vergleich zwischen tätsächlicher und gewollter Ausgabe vorkommt, kann von überwachtem Lernen doch keine Rede sein. Ich denke diese Argumentation ist auch Problemlos nachzuvollziehen und ziemlich logisch. Vergleiche dazu den Wiki-Artikel über Hopfield-Netze. Ich werde daher den Link zur Hebbschen Lernregel vom überwachtem zum unüberwachten lernen verschieben.Deedl 14:34, 13. Mai 2007 (CEST)Beantworten

Allgemeines

[Quelltext bearbeiten]

Also ich bezeichne mich mal als sehr technikaffinen Menschen, der sich nur mal informieren wollte, was KNN so sind und so machen. Ich finde den Artikel echt schlimm und habe kaum ein Wort verstanden. Es sollte in einer Enzyklopädie darum gehen, dass man rasch (anhand einfacher Beispiele) einen Eindruck und Einblick gewinnt. Was hier geschieht ist aber ein einziges Um-Sich-Schlagen mit nicht erklärten Fachbegriffen. Könnte mal jemand versuchen, KNN so zu erklären, wie man es einem Kind erklärt? Danke! --159.149.155.89 21:47, 19. Jul. 2007 (CEST)Beantworten

Hinweis auf industriell verfügbares KNN

[Quelltext bearbeiten]

Warum wurde der Hinweis auf dieses KNN gelöscht? Der Hinweis auf diesen Hersteller und sein Produkt ist nicht aus Werbegründen hier angebracht, sondern um zu zeigen, dass es nicht nur im Labor Modelle gibt, sondern auch industriell verfügbare Lösungen. Da ich nur diesen Hersteller kenne, habe ich auch nur ihn genannt. Wer noch andere kennt, soll sie dazustellen. Aber es gibt m. W. keine - umso interessanter und wichtiger darauf hinzuweisen. (nicht signierter Beitrag von 83.99.62.4 (Diskussion) )

Der Schreibstil war aus meiner Sicht eindeutig werbend. Es wurden Alleinstellungsmerkmale behauptet, die nicht beleget waren und als einzige Quelle die Herstellerseite genannt. Wenn ein Produkt so einzigartig ist, muss dies belegt werden, daher auch meine Entfernungsbegründung: bitte nachprüfbare neutrale Quelle angeben (siehe Versionsgeschichte).
Also Absatz entweder abschwächen oder belegen.
Bitte auf Diskussionsseiten WP:SIG beachten.
Gruß --Baumfreund-FFM 06:44, 20. Mär. 2008 (CET)Beantworten

Ich weiss nicht, ob mein Schreibstil werbend ist- ich bin auch kein Schriftsteller, sondern Ingenieur. Du darfst das ruhig in einen nicht werbenden Stil umschreiben. Der Beleg dafür, dass das Produkt einzigartig ist, ist einfach: nimm dir eine Stunde Zeit und google durch die ganze Welt- du wirst nichts finden. Das sollte doch in der Hinsicht ausreichen. Bez. der nachprüfbaren Quelle: da das Produkt ein Nischenprodukt einer hochspezialisierten Industriebranche ist -Qualitätskontrolle mittels (neuronaler) digitaler Bildverarbeitung -wirst du auch hier kaum einen Bericht finden. Ich bin aber sicher, dass der Hersteller dir Kundenreferenzen geben kann. Es ist doch nur normal, in einem Artikel über KNN auch einen Hinweis und Link auf ein real existierendes KNN zu geben... Das ist doch in jedem Wikipedia Artikel so (darum geht es doch letztendlich- relevante Information zur Verfügung zu stellen. Und m.E. ist diese Information relevant - vor allem wenn man sich in KNN auskennt und WEISS dass es so gut wie keines ausserhalb von Forschungslaboren gibt). (nicht signierter Beitrag von 83.99.60.168 (Diskussion) )

Das WP-Prinzip ist nicht, dass sich die Wikipedianer die Belege suchen, sondern der Autor hat die Belege zu erbringen.
Gruß --Baumfreund-FFM 12:41, 21. Mär. 2008 (CET)Beantworten

Aha! Dann kuck mal unter "Astrologie" auf Wikipedia. Da wird auf Astrologie-Bücher verlinkt. Kein Kommentar... Nochmal: Ich habe keinen Bezug zu der Firma und es ist mir auch egal ob das jetzt werbend beschrieben wird oder was weiss ich. Schade finde ich nur, dass in einem so interessanten Feld wie der KNN ein solcher Hinweis nicht akzeptiert werden soll. In jedem anderen Artikel sind Hinweise auf Hersteller integriert (Autos, Flugzeuge, Handys)- und hier soll das nicht erlaubt sein? Wo es (so weit ich weiss) erwiesenermassen nur einen Hersteller gibt!? Das soll WP ja auch leisten: jeder der das liest und einen anderen kennt, soll sein Wissen dazuschreiben- es geht ja darum Wissen zu vermehren.

Hier noch ein gutes Beispiel: http://de.wikipedia.org/wiki/Druckluftauto (Kapitel2): Hier dürfen die Daten einer -mit an Sicherheit grenzenden Wahrscheinlichkeit- betrügerischen Firma jahrelang in WP stehen. Dass in nachfolgenden Kapiteln Kritik geübt wird, ist ja ok- darf man hier ja auch gern machen. Wieso also darf für MCI "Werbung" gemacht werden, und ein seriöser Beitrag hier wird nicht geduldet? (nicht signierter Beitrag von 83.99.60.168 (Diskussion) )

Hallo, mangelnde Qualtiätssicherung in anderen Artikeln kann doch kein Argument dafuer sein, hier wahllos Produkte aufzulisten. Du wirst sicherlich einsehen, dass es Regeln geben muss, wann ein Produkt gelistet werden soll und wann nicht. Alles was Baumfreund erwartet, ist eine ueberpruefbare Begruendung, was das eine gegenüber den vielen anderen auszeichnet.-- sparti 23:48, 21. Mär. 2008 (CET)Beantworten

Sprachsynthese

[Quelltext bearbeiten]

Im Artikel existiert ein Wiki-Link der "Sprachgenerierung" heißt. Es gibt aber schon ein Artikel, der Sprachsynthese heißt, womit wohl das gleiche gemeint sein soll. Da der Artikel gesperrt ist kann vielleicht jemand autorisiertes diese Kleinigkeit überprüfen.--Sanches 19:00, 17. Aug. 2008 (CEST)Beantworten

bild neuron

[Quelltext bearbeiten]

müsste es nicht eher so lauten:

--Micha81 10:35, 29. Dez. 2008 (CET)Beantworten

Terminologie: Netz/Netzwerk

[Quelltext bearbeiten]

Wie sieht es denn aus mit den Begrifflichkeiten? Bei uns an der Uni wurde Wert darauf gelegt, dass es neuronales Netz heißt, nicht Netzwerk. Hier im Artikel wird einleitend nur neuronales Netz verwendet, im Arikelverlauf aber Netz und Netzwerk kunterbund gemischt. Sollte der Begriff neuronales Netzwerk gängig sein, würde es sich wahrscheinlich anbieten, das in der Einleitung mit anzugeben (auch: künstliches neuronales Netzwerk). Selbst wenn Netzwerk gängig ist, würde es sich vieleicht trotzdem anbieten, sich aus Kohärenzgründen für einen Begriff im Artikel zu entscheiden. Meinungen? --GlaMax 12:09, 20. Okt. 2009 (CEST)Beantworten

Ich würde davon ausgehen, dass die Begriffe bislang im Text nicht bewusst unterschieden werden. Ich würde demnach sagen, erstmal alles auf künstliches neuronales Netz zu ändern, da a) es im Titel steht und b) Dein Professer formuliert, dass Netzwerk hier der falsche Begriff ist. Sollte jemand den Begriff Netzwerk als alternativen und richtigen Begriff kennen, sollte das dann explizit als Alternativbegriff erwähnt werden. Eine konsistente Bezeichnung im Artikel finde ich unabhängig von der Richtigkeit vernünftig und da bietet sich ja das Lemma künstliches neuronales Netz an. Machst Du das? Gruß, norro wdw 12:34, 20. Okt. 2009 (CEST)Beantworten
Gibt es zu "Netz ist richtiger als Netzwerk" noch belastbareres Material als "an der Uni wurde Wert darauf gelegt"? Momentan findet Google "künstliche neuronale netze" doppelt so oft auf DE-Seiten wie "künstliche neuronale netzwerke". Was generell kein großer Unterschied ist, und erst recht nicht, wenn man bedenkt, wie viele sich an Wikipedia orientieren.--Biologos 16:55, 30. Okt. 2009 (CET)Beantworten
Wie dir jedes gute Wörterbuch bestätigen wird, ist die Übersetzung von “network” „Netz“. Für einen Präskriptivisten ist an dieser Stelle die Diskussion beendet. Für einen Empiriker ist es natürlich interessant zu ergründen, ob im Deutschen das Wort „Netzwerk“ möglicherweise immer häufiger verwendet wird. Ein Deskriptivist könnte das dann damit zu erklären versuchen, dass der Einfluss des Englischen damit zu tun hat, dass Deutsche beim Übersetzen den falschen Freund „Netzwerk“ bevorzugen – besonders im technischen Bereich, wo „Netz“ und „Netzwerk“ wohl (aus deskriptiver Sicht) inzwischen als Synonyme anzusehen sind. --Thüringer ☼ 17:22, 30. Okt. 2009 (CET)Beantworten
Das heißt das Argument ist ein rein sprachliches, das darauf fußt, dass sich 1. der Begriff im Englischen gebildet hat und 2. die korrekte Übersetzung von network "Netz" und nicht "Netzwerk" ist? Was wäre dann die englische Übersetzung des deutschen Wortes "Netzwerk"? Was ist der Unterschied zwischen einem Netz und einem Netzwerk? In der Technik, schreibst du, besteht keiner (mehr). Sollte die Wikipedia nicht den aktuellen Sprachgebrauch abbilden, sofern dieser korrekt ist? Ist die von dir verwendete Argumentation auch die, die an den Unis vorgebracht wird? Falls ja: Sollten Informatiker Aussagen über korrekte Übersetzungen nicht eher den Sprachwissenschaftlern überlassen? (Mein Wörterbuch übersetzt network übrigens mit "Empfängernetz, Netz, Netzwerk". (Lechners Englisch-Wörterbuch, Lechner Verlag 1995)) Viele Grüße,--Biologos 17:40, 30. Okt. 2009 (CET)Beantworten
Nachtrag: Darüber wurde natürlich schon längst an anderer Stelle diskutiert, z. B. hier: http://de.wikipedia.org/wiki/Diskussion:Netzwerk . Zitat von dort: der entsprechende Artikel in Zwiebelfisch, den hier alle nachbeten ist nicht unangreifbar. Die wesentliche deutsche Bedeutung von "Netzwerk" im übertragenen Sinne, laut Wahrig 1968: "Netzartiges Gefüge". Und das ist für Vieles, das Netzwerk genannt wird, eindeutig der Fall. Eben kein zweidimensionales Netz und keine dreidimensionale Reuse, sondern ein mehrdimensionales, sich veränderndes netz a-r-t-i-g-e-s Gefüge. Und der Vollständigkeit halber noch der Link auf den Zwiebelfisch-Artikel, den ich auch für schwach halte (inzwischen ist der Stern von Herrn Sick als Deutsch-Oberexperte ja auch insgesamt gesunken): http://www.spiegel.de/kultur/zwiebelfisch/0,1518,315833,00.html --Biologos 18:22, 30. Okt. 2009 (CET)Beantworten
Nach Durchsicht der Literaturliste wurde mir klar, dass der Begriff "Neuronales Netzwerk" zumindest in zitierfähigen Quellen vorkommt, wenn nicht sogar neben "Netz" gängig ist. Nachdem ich mir Deine Links zu den Diskussionen und zum Zwibelfisch angeschaut habe, habe ich den Eindruck, dass beide Begriffe im allgemeinen Sprachgebrauch verwendet werden, die herrschende Lehre aber wohl eher zu "Netz" tendiert. Deshalb mein Vorschlag: -Angabe "(auch: neuronales Netzwerk)" oder "(im allg. Sprachgebrauch auch: NNW)" hinzufügen. -Aus Koheränzgründen Vereinheiltichung im Text zu "Netz" oder "Netzwerk", ich bevorzuge wegen der Lehre "Netz". Natürlich nicht bei Zitaten und Quellenangaben. Widersprüche? --GlaMax 15:44, 21. Nov. 2009 (CET)Beantworten
Ja, Widerspruch. Die Beobachtung, dass Netzwerk mitunter synonym zu Netz gebraucht wird, gehört nicht in diesen Artikel und gehört überhaupt nicht in eine Enzyklopädie, sonder in ein Wörterbuch, z.B. Wiktionary. Als Terminus technicus ist im Deutschen Neuronales Netz etabliert, und ich sehe keinen Grund, das hier im Artikel zu verwässern. --Thüringer ☼ 17:30, 21. Nov. 2009 (CET)Beantworten
Ich liefere mal Fakten: In der aktuellen Version des Artikels findet sich bei den Einzelnachweisen, den Literaturangaben und den Weblinks jeweils ein Eintrag, der "Netzwerk" verwendet (jeweils etwa 10 %). Bei amazon.de findet man etwa 30 Fachbücher mit "neuronale Netzwerke" und über 500 mit "neuronale Netze". Das ist für mich Beleg genug, dass der gebräuchliche Fachbegriff "neuronale Netze" ist. Ich wäre dann, ähnlich wie GlaMax, für den Zusatz im Einleitungssatz "(selten auch künstliche neuronale Netzwerke, kurz: KNN, engl. artificial neural network – ANN)", ohne eine Bewertung, was korrekt ist und was nicht.--Biologos 18:00, 21. Nov. 2009 (CET)Beantworten
Ich würde das mal jetzt so umsetzen. Ob man jetzt anstelle "selten" etwa "manchmal", "fälschlich" etwas anderes oder garnichts schreibt, kann ja noch diskutiert werden. Mir geht es ieL um die Einheitlichkeit im Text, und eine Verbesserung dürfte es allemal sein.--GlaMax 19:46, 21. Nov. 2009 (CET)Beantworten

"Forschungsgelder"

[Quelltext bearbeiten]

Es gibt da die Aussage "Die Folge war ein vorläufiges Ende der Forschungen auf dem Gebiet der Neuronalen Netze, da die meisten Forschungsgelder gestrichen wurden."

Das ist meiner Meinung nach unpräzise. Bitte hinterlegen! Ohne über die Details Bescheid zu wissen: Meist werden Forschungsgelder nur in einer Gesellschaft (z.B. Helmholtz, oder Max-Planck), einem Staat (z.B. USA) oder Wirtschaftbereich (z.B. EU) heruntergefahren. Weltweit meist nicht gleichzeitig. Sollte das hier wirklich der Fall gewesen sein, wäre es gut, das zu belegen. --Frank Herbrand 19:49, 9. Nov. 2009 (CET)Beantworten

Das war hier, nach der Entdeckung des XOR Problemes, wohl in der Tat so. Findet sich in jedem Buch zum Thema in dem die Historie erwähnt wird.--143.93.55.239 12:35, 4. Jan. 2010 (CET)Beantworten

"Allgemeine Probleme"

[Quelltext bearbeiten]

Ich weiss nicht, welchem KNN-Kurs diese Auflistung von Allgemeinen Problemen von künstlichen Neuronalen Netzen entsprungen ist, aber ich halte diese in dieser Form für ein wenig unglücklich.

Beispielsweise: "Das Trainieren von KNN (im Terminus der Statistik: Das Schätzen der im Modell enthaltenen Parameter) führt in der Regel zu hochdimensionalen, nichtlinearen Optimierungsproblemen." -> Was ist denn, wenn ich schon von Anfang an ein hochdimensionales, nichtlineares Optimierungsproblem habe? Dann probiere ich natuerlich auch KNNs aus, weil diese für den Zweck im Jahr 2011 state of the art sind.

Oder: "Es müssen Trainingsdaten gesammelt oder manuell erzeugt werden." Bei jedem Supervised Learning Algorithmus müssen Trainingsdaten gesammelt werden. Selbst für eine einfache lineare Regression brauche ich ja irgendwelche Daten, in die ich meine Hypothese reinpressen kann. Das ist keine den KNNs innewohnende Eigenschaft, es gibt auch aus dem Umfeld der konnektionistischen neuronalen Netze unsupervised learning Methoden.

Oder: "Bei Anwendung einer ‚heuristischen‘ – nicht statistischen – Vorgehensweise bei der Netzspezifikation, neigen KNN dazu, die Trainingsdaten einfach auswendig zu lernen" Das Overfitting ist ebenso kein Problem, das alleine die KNNs haben. Das Problem besteht bei (fast) jedem machine learning Algorithmus.

Jedenfalls erscheint für mich durch diesen "aufgebauschten" Problemteil bei KNNs ein Bias gegen diese Technologie aufgebaut zu werden, obwohl die meisten Probleme eigentlich nicht spezifisch sind für Neuronale Netze.

Daher schlage ich vor, dass ich diesen Problemteil demnächst ein wenig straffe und dergestalt umformuliere, dass ersichtlich wird, dass die Probleme eher übergeordneter Natur sind und nicht spezifisch sind für KNNs.

schöne Grüße Danny Busch]] [[Benutzer Diskussion:DannyBusch|:-) 08:55, 3. Nov. 2011 (CET)Beantworten

Artikel überholt

[Quelltext bearbeiten]

Dieser Artikel fällt weit hinter den gegenwärtigen Stand der Kunst im Bereich neuronaler Netze zurück. Er enthàlt keinen Hinweis darauf, dass tiefe (und rekurrente) neuronale Netze seit 2009 in vielen Wettbewerben alle anderen Methoden schlagen (Stichwort Deep Learning). Da bleibt viel zu tun. Wohlgetango (Diskussion) 19:24, 26. Dez. 2013 (CET)Beantworten

Hier mal ein paar Textbausteine - ich habe mich bei der englischen Wikipedia und Professor Schmidhubers Seite http://www.idsia.ch/~juergen/firstdeeplearner.html bedient:

In jüngster Zeit erlebten neuronale Netzwerke eine Wiedergeburt, da sie bei herausfordernden Anwendungen oft bessere Ergebnisse als konkurrierende Lernverfahren liefern. Zwischen 2009 and 2012 gewannen die rekurrenten bzw. tiefen vorwärtsgerichteten neuronalen Netzwerke der Forschungsgruppe von Jürgen Schmidhuber am Schweizer KI Labor IDSIA eine Serie von acht internationalen Wettbewerben in den Bereichen Mustererkennung und maschinelles Lernen[1]. Insbesondere gewannen ihre rekurrenten LSTM Netzwerke[2][3] drei Wettbewerbe zur verbundenen Handschrifterkennung bei der "2009 Intl. Conf. on Document Analysis and Recognition (ICDAR)", ohne eingebautes a priori-Wissen über die drei verschiedenen zu lernenden Sprachen. Die LSTM-Netze erlernten gleichzeitige Segmentierung und Erkennung. Dies waren die ersten internationalen Wettbewerbe, die durch Deep Learning[4][5] oder durch rekurrente Netze gewonnen wurden.

Tiefe vorwärtsgerichtete Netzwerke wie Kunihiko Fukushimas Konvolutionsnetz[6] verfügen über alternierende Konvolutionslagen und Lagen von Neuronen, die miteinander im Wettbewerb stehen. Yann LeCuns Team von der New York University wendete den seinerzeit schon gut bekannten backpropagation Algorithmus auf solche Netze an[7]. Moderne Varianten verwenden sogenanntes "max-pooling" für die Wettbewerbslagen[8]. Zum Abschluss krönt man das tiefe Netz durch mehrere normale Neuronenlagen. Schnelle GPU-Implementierungen dieser Kombination wurden durch Ciresan und Kollegen in Schmidhubers Gruppe eingeführt[9]. Sie gewannen seither zahlreiche Wettbewerbe, u.a. die "ISBI 2012 Segmentation of Neuronal Structures in Electron Microscopy Stacks Challenge"[10] und den "ICPR 2012 Contest on Mitosis Detection in Breast Cancer Histological Images"[11]. Derartige Modelle erzielten auch die bisher besten Ergebnisse auf der ImageNet Datenbank[12][13]. GPU-basierte "max-pooling" Konvolutionsnetze waren auch die ersten künstlichen Mustererkenner mit übermenschlicher Performanz[14] in Wettbewerben wie der "IJCNN 2011 Traffic Sign Recognition Competition"[15].

  1. http://www.kurzweilai.net/how-bio-inspired-deep-learning-keeps-winning-competitions 2012 Kurzweil AI Interview mit Jürgen Schmidhuber zu den acht Wettbewerben, die sein Deep Learning Team zwischen 2009–2012 gewann
  2. Graves, Alex; and Schmidhuber, Jürgen; Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks, in Bengio, Yoshua; Schuurmans, Dale; Lafferty, John; Williams, Chris K. I.; and Culotta, Aron (eds.), Advances in Neural Information Processing Systems 22 (NIPS'22), December 7th–10th, 2009, Vancouver, BC, Neural Information Processing Systems (NIPS) Foundation, 2009, pp. 545–552
  3. A. Graves, M. Liwicki, S. Fernandez, R. Bertolami, H. Bunke, J. Schmidhuber. A Novel Connectionist System for Improved Unconstrained Handwriting Recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 31, no. 5, 2009.
  4. Bengio, Y. (2009). Learning Deep Architectures for AI.. Now Publishers. http://www.iro.umontreal.ca/~bengioy/papers/ftml_book.pdf
  5. Schmidhuber, Jürgen; My First Deep Learning System of 1991 + Deep Learning Timeline 1962-2013, http://www.idsia.ch/~juergen/firstdeeplearner.html
  6. Fukushima, K.: Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position. In: Biological Cybernetics. 36. Jahrgang, Nr. 4, 1980, S. 93–202, doi:10.1007/BF00344251.
  7. Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard, L. D. Jackel. Backpropagation Applied to Handwritten Zip Code Recognition. Neural Computation, 1(4):541-551, 1989. http://yann.lecun.com/exdb/publis/pdf/lecun-89e.pdf
  8. M. Riesenhuber, T. Poggio. Hierarchical models of object recognition in cortex. Nature neuroscience, 1999. http://riesenhuberlab.neuro.georgetown.edu/docs/publications/nn99.pdf
  9. D. C. Ciresan, U. Meier, J. Masci, L. M. Gambardella, J. Schmidhuber. Flexible, High Performance Convolutional Neural Networks for Image Classification. International Joint Conference on Artificial Intelligence (IJCAI-2011, Barcelona), 2011. http://www.idsia.ch/~juergen/ijcai2011.pdf
  10. D. Ciresan, A. Giusti, L. Gambardella, J. Schmidhuber. Deep Neural Networks Segment Neuronal Membranes in Electron Microscopy Images. In Advances in Neural Information Processing Systems (NIPS 2012), Lake Tahoe, 2012. http://www.idsia.ch/~juergen/nips2012.pdf
  11. D. Ciresan, A. Giusti, L. Gambardella, J. Schmidhuber. Mitosis Detection in Breast Cancer Histology Images using Deep Neural Networks. MICCAI 2013. http://www.idsia.ch/~juergen/miccai2013.pdf
  12. A. Krizhevsky, I. Sutskever, G. E. Hinton. ImageNet Classification with Deep Convolutional Neural Networks. NIPS 25, MIT Press, 2012. http://www.cs.toronto.edu/~hinton/absps/imagenet.pdf
  13. M. D. Zeiler, R. Fergus. Visualizing and Understanding Convolutional Networks. TR arXiv:1311.2901 [cs.CV], 2013. http://arxiv-web3.library.cornell.edu/abs/1311.2901
  14. D. C. Ciresan, U. Meier, J. Schmidhuber. Multi-column Deep Neural Networks for Image Classification. IEEE Conf. on Computer Vision and Pattern Recognition CVPR 2012. http://www.idsia.ch/~juergen/cvpr2012.pdf
  15. D. C. Ciresan, U. Meier, J. Masci, J. Schmidhuber. Multi-Column Deep Neural Network for Traffic Sign Classification. Neural Networks, 2012. http://www.idsia.ch/~juergen/nn2012traffic.pdf

Wohlgetango (Diskussion) 22:41, 26. Dez. 2013 (CET)Beantworten

Abschnitt "Typische Strukturen"

[Quelltext bearbeiten]

Der Bezug zwischen evolutionären Algorithmen und Moore-Automaten hinsichtlich neuronaler Netze wird nicht ersichtlich und ist auch nicht belegt. Zudem führt der Link hinter "Moore-Automat" hier auf den Artikel des Zellulären Automaten. (nicht signierter Beitrag von Neutronstar2 (Diskussion | Beiträge) 19:53, 12. Apr. 2016 (CEST))Beantworten

nicht immer will man neuronale Netze trainieren

[Quelltext bearbeiten]

Mir kommt es so vor, als ginge es in dem Artikel immer nur um trainierbare Netze. Dabei sind meiner Meinung nach nicht trainierbare Netze viel wichter bei praktischen Anwendungen. Hierbei werden fertige Gewichtungen aus einer Datei geladen und damit kann das (vortrainierte) Netz dann z.B. Buchstaben und Zahlen erkennen, die ein Scanner liefert. D.h. es wurde einmal ein Training gemacht und die damit erhaltenen Gewichte werden dann zusammen mit einem nicht-trainierbaren Netz in ein Produkt eingebaut. --2.246.115.192 23:41, 8. Jun. 2017 (CEST)Beantworten

Es ist das gleiche Netz und es musste einmal trainiert werden. Dass man die gewonnenen Daten dann auf n Stück replizieren kann liegt in der Natur der darunterliegenden Sache. -- Janka (Diskussion) 10:58, 9. Jun. 2017 (CEST)Beantworten
Es kann nur dann dasselbe Netz sein, wenn es nicht mehr trainiert wird. Die Aufforderung, bitte zwischen Trainingsphase und Einsatzphase bei praktischen Anwendungen zu unterscheiden, ist somit völlig berechtigt. Man kann kritische Anmerkungen auch ernst nehmen. --nanu *diskuss 12:44, 12. Jun. 2017 (CEST)Beantworten

Vermutlich Fehler bzgl Minski und XOR

[Quelltext bearbeiten]

In dem Abschnitt der sich mit dem Effekt von Minski's Buch "Perceptrons" beschäftigt werden alte Fehleinschätzungen wiederholt. Hier wäre es wichtig die wesentliche Essenz des englischen Artikels über dieses Buch https://en.wikipedia.org/wiki/Perceptrons_(book)#The_XOR_affair einzufangen und sauber wiederzugeben. Aktuell gibt die deutsche Wikipedia hier nach meinem Verständnis primär Mythen weiter...

Wellenformgleichung?

[Quelltext bearbeiten]

Hallo,

ich dachte, mal entweder gelesen oder davon gehört zu haben, dass neuronale Netze (mit fest definierten Verbindungen) eigentlich komplexe Wellenformgleichungen inklusive Rückkopplung darstellen bzw. lösen (mit zwei möglichen Ausgängszuständen: Netz bzw. Wellenform schwingt sich ein -> definierter Ausgangswert; Netz bzw. Wellenform bleibt in Schwingung -> undefinierter Ausgangswert).

Leider finde ich auf die schnelle keine belastbare Quelle. Nur würde mich interessieren: Täuscht meine Erinnerung, oder ist da was dran?

Danke,

 Stefan. (nicht signierter Beitrag von 2001:A62:1542:AD01:6D9:F5FF:FEF5:72D5 (Diskussion) 21:09, 2. Jul. 2020 (CEST))Beantworten

Aktivierungsfunktion von Schichten?

[Quelltext bearbeiten]

Im Artikel steht, dass jede Schicht über eine Aktivierungsfunktion verfügt. Müsste es nicht richtigerweise heißen, dass die Neuronen (der jeweiligen Schicht) über Aktivierungsfunktionen verfügen? Noch genauer vielleicht: Ihr Verhalten kann mathematisch durch Aktivierungsfunktionen beschrieben werden. Könnte das jemand korrigieren? Danke! --Perennis (Diskussion) 11:27, 4. Jul. 2020 (CEST)Beantworten

Habe die Stelle mal ein wenig angepasst. Darf gerne noch "nachjustiert" werden. --Perennis (Diskussion) 15:55, 11. Jul. 2020 (CEST)Beantworten

Die logistische Sigmoide und die Tanh-Funktion sind äquivalent.

[Quelltext bearbeiten]

hier heißt es: Die Aktivierungsfunktion des Eingabeneurons sei die Identität. Die Aktivierungsfunktion der verdeckten Schicht sei die Tanh-Funktion. Die Aktivierungsfunktion der Ausgabeschicht sei die logistische Sigmoide. Die logistische Sigmoide und die Tanh-Funktion sind äquivalent, unter Sigmoidfunktion heißt es zu recht: Die Umkehrfunktion dieser Funktion ist .. artnh. Unter Diskussion:SIR-Modell#Ein_möglicher_Fehler habe ich auf diese Äquivalenz auch schon hingewiesen. --TumtraH-PumA (Diskussion) 09:10, 31. Jul. 2020 (CEST)Beantworten

Sie sind aber nicht gleich... --TheRandomIP (Diskussion) 11:54, 31. Jul. 2020 (CEST)Beantworten
Was immer man unter gleich verstehen mag. The logistic function is an offset and scaled hyperbolic tangent function heißt es zu recht in en:Logistic_function. Also sie unterscheiden sich in Scalierung und Lage des Nullpukts. Wenn ich von Parabel als Funktion spreche, abstrahiere ich auch von Scalierung und Lage des Nullpunkts, alle Parabeln sind zu einander äquivalent. Im Neuronalen Netz werden parametrisierbare Übergangs-Funktionen angegeben, Scalierung und NullpunktLage sind für mich Parameter. --TumtraH-PumA (Diskussion) (ohne (gültigen) Zeitstempel signierter Beitrag von TumtraH-PumA (Diskussion | Beiträge) 20:11, 31. Jul. 2020 (CEST))Beantworten

Grundsätzliches fehlt

[Quelltext bearbeiten]

OMAs Wissbegier hinsichtlich einer einführenden Information, wozu man das brauchen kann und wie es in Grundzügen aufgebaut ist, läuft völlig ins Leere. Ist das Absicht? Sowas sollte eingangs gesagt werden. --Bleckneuhaus (Diskussion) 02:54, 24. Mär. 2024 (CET)Beantworten

Um anzudeuten, welche Informationen ich für den Anfang eines allgemeinen Enzyklopädieartikels angemessen halten würde, ein halbfertiger Entwurf:

Ein Künstliches neuronales Netz, kurz: KNN (englisch artificial neural network, ANN), ist ein Computerprogramm, das es dem Computer ermöglicht, auf eine von der Natur inspirierte Art ähnlich wie ein Gehirn zu lernen. Dadurch kann es für praktisch jedes beliebig gewählte Wissensgebiet anhand geeigneter Beispiele darauf trainiert werden, aus einer eingegebenen Information eine passende Schlussfolgerung zu berechnen. Es kann die Fähigkeit eines Menschen, der vor der gleichen Aufgabe steht, durchaus erreichen oder sogar übertreffen. Bekannte Beispiele sind etwa:(Achtung, vorerst nur Platzhalter!) 
* Das mit einigen Millionen Partien des Brettspiels Go trainierte neuronale Netz AlphaGo konnte im Jahr 2016 den Weltmeister schlagen.
* Ein mit einigen Milliarden Röntgenaufnahmen trainiertes neuronales Netz erreicht in der Tumorfrüherkennung Trefferquoten wie erfahrene medizinische Fachleute.[1]
* Ein mit einigen Milliarden Seiten in deutscher Sprache trainiertes neuronales Netz kann zu praktisch jedem Thema einen Text ausgeben, der von einer menschlichen Autorschaft kaum zu unterscheiden ist.[2]
Das Programm besteht aus einer Vielzahl (vom einstelligen Bereich bis zu vielen Milliarden) kleiner Unterprogramme, die als künstliche Neuronen bezeichnet werden und in Schichten (layers) organisiert sind. Jedes Neuron kann eine oder mehrere Eingaben erhalten und berechnet das Ausgabesignal, das an diejenigen Neuronen der folgenden Schicht weitergegeben wird, mit denen es verbunden ist. Die Neuronen der ersten Schicht empfangen die Eingabe von außen an das neuronale Netz, die Neuronen der letzten Schicht liefern die endgültige Antwort. Jedes Neuron vollzieht dabei eine höchst einfach Berechnung: zu jeder seiner Eingabemöglichkeiten hat es einen Gewichtsfaktor, mit dem das ankommende Signal multipliziert wird. Die Ergebnisse aller Eingaben an das Neuron werden aufaddiert, und allein aus dieser Summe wird mit einer für alle Neuronen gleichen Formel der eine Wert berechnet, den das Neuron ausgibt.
Es ist im allgemeinen nicht im Voraus zu bestimmen, welche Werte die einzelnen Gewichtsfaktoren haben müssen, damit ein leistungsfähiges neuronales Netz entsteht. Man gibt ihnen daher beim Erstellen des Programmcodes zunächst irgendwelche geschätzten Werte. Im Trainingsmodus werden dem Programm nacheinander die Trainingsbeispiele präsentiert, die jeweils aus einem Satz Eingabedaten und der dazu erwarteten Antwort bestehen. Je nachdem, wie weit und an welchen Stellen die Antwort des Programms von der vorgegebenen Antwort abweicht, berechnet das Programm zu den einzelnen Gewichtsfaktoren Korrekturen, die die Antwort verbessern würden, und verändert die Faktoren entsprechend. Dadurch ändert sich das Programm laufend. Die Abweichungen zwischen den errechneten und den vorgegebenen Antworten nehmen ab, das neuronale Netz "lernt". Dieser gesamte Prozess ist streng deterministisch und würde bei jedem neuen, von Beginn an exakt gleichen Training desselben Netzes dasselbe Ergebnis, also dieselbe Menge der mehrfach korrigierten Gewichtsfaktoren hervorbringen. Allerdings ist dieser Prozess auch so unübersichtlich, dass es praktisch unmöglich ist, das Ergebnis vorherzusagen. Nach Beendigung des Trainingsmodus bleiben die Gewichte unverändert, und das Programm berechnet aus den Eingaben auf streng algorithmische Weise die Antwort.
Die Qualität eines künstlichen neuronalen Netzes hängt neben der Anzahl der Schichten und der Auswahl, welches Neuron mit welchen anderen verbunden sein soll, entscheidend von der Auswahl und Menge der Trainingsdaten ab. Aus dem Training mit einseitig oder anderswie schlecht ausgewählten Beispielen gingen bereits Netze hervor, die grotesk falsche oder tendenziös gefährliche Antworten geben.
  1. kopen/article-abstract/2761795
  2. Miriam Meckel, Léa Steinacker: Alles überall auf einmal: Wie Künstliche Intelligenz unsere Welt verändert und was wir dabei gewinnen können, Rowohlt, 2024

Der erste Satz ist von [1] inspiriert, der Rest eher meine Vorstellung. Mangels eigenen Überblicks möchte ich fragen, ob jemand weitere entsprechende Quellen für so einen einführenden Text nennen könnte.--Bleckneuhaus (Diskussion) 06:30, 26. Mär. 2024 (CET) Achtung: der obige Text wurde mehrfach erweitert. Vorige Versionen bitte über Versionsgeschichte ansehen.Beantworten

Danke, das finde ich eine klare Verbesserung. --Zulu55 (Diskussion) 08:40, 26. Mär. 2024 (CET)Beantworten
Jahr korrigiert und Belege zugefügt. Ich hoffe auf weitere Kommentare! --Bleckneuhaus (Diskussion) 16:48, 26. Mär. 2024 (CET)Beantworten
Nächsten Abschnitt über den grundlegenden Aufbau, einfach oben angefügt. Was jetzt noch fehlt, ist mE nur noch ein kurzer EInblick ins Training.--Bleckneuhaus (Diskussion) 17:29, 26. Mär. 2024 (CET)Beantworten
Abschnitt zu Training angefügt. Auch zur Wichtigkeit der Auswahl der Beispiele. Vorlage:QS-Nawi eingetrahen, um mehr Wikipedianer zu Anregungen zu motivieren. --Bleckneuhaus (Diskussion) 19:49, 27. Mär. 2024 (CET)Beantworten
@Bleckneuhaus Das stimmt so aber nicht mehr, ein neuronales Netz ist per se kein Computerprogramm, sondern ein statistisches/mathematisches Modell. Klar, können solche Modelle in der Praxis programmiert werden, aber an der Uni und in der Forschung werden KNN als mathematische Modelle betrachtet.--Tensorproduct 07:10, 28. Mär. 2024 (CET)Beantworten
Da lässt sich sicher eine geeignetere Formulierung (oder Ergänzung weiter hinten im Text) finden. Ich vermute allerdings, dass außerhalb des Labor- bzw. Institutsjargons sich niemand vorstellen kann, dass ein mathematisches Modell etwas anderes ist als was man auf Papier schreiben kann. Kann ein mathematisches Modell trainiert werden, Ergebnisse ausgeben, jemanden beleidigen etc? Für den weiteren (unterstellten) Leserkreis würde ich den Vorrang von „Computerprogramm“ deutlich bevorzugen, aber Leute vom Fach (wie Dich) natürlich nicht abstoßen wollen. - Ich finde übrigens auch den Gebrauch von "statistisch" in diesem Zusammenhang mehr als kommentierungsbedürftig. In aller Munde bedeutet statistisch das Gegenteil von determiniert, aber was ist am neuronalen Netz denn nicht determiniert? Wo spielt der Zufall rein? Nur, dass man das menschlicherseits nicht mehr nach- bzw. vorvollziehen kann, was beim Training da herauskommt, macht noch keinen Zufall. (Oder sollte das so ähnlich gemeint sein wie bei der Betrachtung zufälliger Messfehler, die ja auch immer auf determinierte Weise entstehen und man nur die Ursachen nicht im Griff hat?) --Bleckneuhaus (Diskussion) 16:42, 28. Mär. 2024 (CET)Beantworten
1) Sorry, aber in keinem Kurs in Data Science oder Machine Learning - noch in der Informatik - lernt man, dass ein neuronales Netzwerk ein Computerprogramm ist. Das ist in etwa so, als würde man sagen, die "newtonschen Gesetze sind eine Software". Eine solche Beschreibung hilft vielleicht dem "Otto-Normalleser", der sich nie mit neuronalen Netzwerken beschäftigen wird, aber nicht jemandem, der sich damit beschäftigen möchte wie z. B. einem Student. Es sollte so auch nicht in einer Enzyklopädie stehen. Klar kann man auch erwähnen, dass ein solches Modell am Computer implementiert wird, aber man sollte trotzdem zwischen dem theoretischen Modell und der Implementation unterscheiden.
2) Ja, natürlich kann ein mathematisches Modell trainiert werden...? Ein neuronales Netzwerk ist ein mathematisches Modell. Ein neuronales Netzwerk ist eine Funktion , welche aus Zwischenschritten in Form von affinen Transformationen und Aktivierungsfunktionen besteht. Ein neuronales Netzwerk ist einfach ein nichtlineares Regressions-Modell.
3) Bezüglich Zufall gibt es unterschiedliche Antworten. Neuronale Netzwerke werden in der Regel stochastisch optimiert, die meisten verwenden den en:Stochastic gradient descent. Aber selbst wenn du diese Komponente weglässt, so ist das trotzdem ein Modell aus der Statistik. In der Statistik geht man davon aus, dass "Daten" zufällig erzeugt worden sind. Ein Münzwurf ist nicht zufällig, aber man modelliert ihn trotzdem mit Hilfe von Wahrscheinlichkeiten, weil dies ein einfaches und sehr gutes Modell ist. Ob es den Zufall überhaupt gibt, das ist eine philosophische Frage und interessiert den Statistiker nicht. Die Welt ist zu komplex und man hat in der Regel nicht genügend Information, um ständig einen 100% determinierten Algorithmus zu finden. Sonst könnten viele Leute auch den Aktienkurs vorraussagen. Als letzter Punkt soll gesagt werden, dass es bei neuronalen Netzwerken - wie bei anderen Regressionsmodellen - darum geht, eine Funktion zu approximieren. Diese kennt man nicht und deshalb benützt man stattdessen ein statistisches Modell wie das neuronale Netzwerk , welches approximiert, das führt dann zu
Man geht nun davon aus, dass dieser Fehlerterm zufällig ist. Schreibst du nun
,
dann siehst du direkt, dass das neuronale Netzwerk als zufällig betrachtet werden kann, denn es ist einfach der Fehler addiert mit .
PS: Es gibt auch nicht nur 1 Neuronales Netzwerk. Neuronale Netzwerke sind eine Klasse von verschiedenen statistischen Modellen.--Tensorproduct 21:11, 28. Mär. 2024 (CET)Beantworten

Entwurf in Einleitung und Überblick gegliedert

[Quelltext bearbeiten]

Der obige Entwurf ist hier so gegliedert, wie er vielleicht an den Anfang des Artikels passen könnte.

Ein Künstliches neuronales Netz, kurz: KNN (englisch artificial neural network, ANN), ist ein Computerprogramm, das es dem Computer ermöglicht, auf eine von der Natur inspirierte Art ähnlich wie ein Gehirn Informationen zu verarbeiten und zu interpretieren. Das Programm besteht aus einer Vielzahl gleicher kleiner Unterprogramme, die als künstliche Neuronen bezeichnet werden. Sie sind in Schichten (layers) organisiert, in denen sie parallel Zwischenergebnisse berechnen, die dann zur weiteren Bearbeitung an die Neuronen der nächsten Schicht weitergegeben werden. Insbesondere kann das Programm so gestaltet werden, dass man es für praktisch jedes beliebig gewählte Wissensgebiet anhand geeigneter Beispiele darauf trainieren kann, aus einer eingegebenen Information eine passende Schlussfolgerung zu berechnen. Der Trainingsprozess wird auch als maschinelles Lernen bezeichnet.
Das so trainierte neuronale Netz kann die Fähigkeit eines Menschen, der vor der gleichen Aufgabe steht, durchaus erreichen oder sogar übertreffen. Bekannte Beispiele sind etwa: * Das mit einigen Millionen Partien des Brettspiels Go trainierte neuronale Netz AlphaGo konnte im Jahr 2016 den Weltmeister schlagen. * Ein mit einigen Milliarden Röntgenaufnahmen trainiertes neuronales Netz erreicht in der Tumorfrüherkennung Trefferquoten wie erfahrene medizinische Fachleute.[1] * Ein mit einigen Milliarden Seiten in deutscher Sprache trainiertes neuronales Netz kann zu praktisch jedem Thema einen Text ausgeben, der von einer menschlichen Autorschaft kaum zu unterscheiden ist.[2]
Die Qualität eines künstlichen neuronalen Netzes hängt neben dem genauen Aufbau entscheidend von der Auswahl und Menge der Trainingsdaten ab. Aus dem Training mit einseitig oder anderswie schlecht ausgewählten Beispielen gingen bereits Netze hervor, die grotesk falsche oder tendenziös gefährliche Antworten geben.[2]
Jedes der künstlichen Neuronen, die mit einer Anzahl vom einstelligen Bereich bis zu vielen Milliarden das Netz bilden,  kann eine oder mehrere Eingaben erhalten und berechnet das Ausgabesignal, das an diejenigen Neuronen der folgenden Schicht weitergegeben wird, mit denen es verbunden ist. Die Neuronen der ersten Schicht empfangen die Eingabe von außen an das neuronale Netz, die Neuronen der letzten Schicht liefern die endgültige Antwort. Jedes Neuron vollzieht dabei eine höchst einfach Berechnung: Zu jeder seiner Eingabemöglichkeiten hat es einen Gewichtsfaktor, mit dem das ankommende Signal multipliziert wird. Die Ergebnisse aller Eingaben an das Neuron werden aufaddiert, und allein aus dieser Summe wird mit einer für alle Neuronen gleichen Formel der eine Wert berechnet, den das Neuron ausgibt.
Es ist im allgemeinen nicht im Voraus zu bestimmen, welche Werte die einzelnen Gewichtsfaktoren haben müssen, damit ein leistungsfähiges neuronales Netz entsteht. Man gibt ihnen daher beim Erstellen des Programmcodes zunächst irgendwelche geschätzten Werte. Im Trainingsmodus werden dem Programm nacheinander die Trainingsbeispiele präsentiert, die jeweils aus einem Satz Eingabedaten (z.B. die Pixel eines Bildes) und der dazu erwarteten Antwort (z.B. "das Bild zeigt zwei Pferde") bestehen. Je nachdem, wie weit und an welchen Stellen die Antwort des Programms von der vorgegebenen Antwort abweicht, berechnet das Programm zu den einzelnen Gewichtsfaktoren Korrekturen, die die Antwort verbessern würden, und verändert die Faktoren entsprechend. Dadurch ändert sich das Programm laufend. Die Abweichungen zwischen den errechneten und den vorgegebenen Antworten nehmen ab, das neuronale Netz "lernt". Dieser gesamte Prozess ist streng deterministisch und würde bei jedem neuen, von Beginn an exakt gleichen Training desselben Netzes dasselbe Ergebnis, also dieselbe Menge der mehrfach korrigierten Gewichtsfaktoren hervorbringen. Allerdings ist dieser Prozess auch so unübersichtlich, dass es selbst für die Autoren des Programms praktisch unmöglich ist, das Ergebnis vorherzusagen.
Nach Beendigung des Trainingsmodus bleiben die Gewichte unverändert, und das Programm berechnet aus den Eingaben auf streng algorithmische Weise die Antwort.
--Bleckneuhaus (Diskussion) 04:56, 28. Mär. 2024 (CET)Beantworten

Einzelnachweise

  1. kopen/article-abstract/2761795
  2. a b Miriam Meckel, Léa Steinacker: Alles überall auf einmal: Wie Künstliche Intelligenz unsere Welt verändert und was wir dabei gewinnen können, Rowohlt, 2024

Hallo Tensorproduct! Danke für die Aufklärung im Abschnitt oben, solche Nachhilfe hatte ich nötig. Genügt f d Einleitung ein kurzer zusatz bei "Computerprogramm", etwa: ... "und das dahinterstehende statistisch-mathematische Modell"... ? Außerdem fehlt noch: der Hinweis auf die wichtige Rolle der KNN bei der KI.- Mehr kann ich gerade nicht hier schreiben. (nicht signierter Beitrag von Bleckneuhaus (Diskussion | Beiträge) 20:37, 29. Mär. 2024 (CET))Beantworten

Hallo Bleckneuhaus, nein, damit bin ich nicht zufrieden. Das ist deine Interpretation, aber nicht wie ein künstliches neuronales Netzwerk in der Literatur definiert wird. Ein künstliches neuronales Netzwerk ist in erster Linie ein mathematisches Modell, welches zwar in der Regel am Computer implementiert wird, aber per se kein Computerprogramm ist. Ansonsten müsste man nach derselben Logik alle statistischen Verfahren wie z.B. die lineare Regression oder den Entscheidungsbaum als Computerprogramme definieren, weil sie in der Regel am Computer implementiert werden. Schauen wir doch mal was in der englischen Wikipedia steht:
  • en:neural network: "A neural network is a group of interconnected units called neurons that send signals to one another. Neurons can be either biological cells or mathematical models."
Die englische Wikipedia sagt also, ein neuronales Netzwerk besteht aus Neuronen, welche entweder biologische Zellen oder mathematische Modelle sind. Nirgends wird das Wort Computerprogramm erwähnt.
Wir können auch einen Blick auf die Geschichte der künstlichen neuronalen Netzwerke werfen. Als Startpunkt der KNN gilt meistens die 1943 erschienene Arbeit "A Logical Calculus of Ideas Immanent in Nervous Activity" von dem Neurophysiologen Warren McCulloch und dem Mathematiker Walter Pitts, welche auf mathematische Art beschreiben, wie Neuronen im Gehirn funktionieren können. Es ging also darum, ein theoretisches Modell zu finden, welches die biologischen Prozesse beschreibt. Ihr mathematisches Modell nennt sich McCulloch-Pitts-Neuron und daraus entwickelte sich das künstliche Neuron. Jetzt zu sagen, dass ein künstliches neuronales Netzwerk ein Computerprogramm ist, ignoriert völlig den Ursprung der künstlichen neuronalen Netzwerke, als mathematisches Modell eines biologischen Konzepts - dem Neuronenmodell. Schauen wir doch wie ein künstliches neuronales Netzwerk in Büchern aus der Neuroinformatik definiert wird:
  • "Rüdiger Brause - Neuronale Netze: Eine Einführung in die Neuroinformatik" definiert ein KNN als ein Graph (Graphentheorie) (Seite 42).
  • "Berndt Müller, Joachim Reinhardt, Michael T. Strickland - Neural Networks: An Introduction" definiert ein KNN als ein gerichteter Graph (Seite 13).
Übrigens, bezüglich deines Kommentares
"Ich finde übrigens auch den Gebrauch von "statistisch" in diesem Zusammenhang mehr als kommentierungsbedürftig",
es gibt auch den Begriff des statistischen Lernens (siehe en:Statistical learning theory). Das ist gängige Terminologie und die habe ich nicht eingeführt.--Tensorproduct 10:40, 30. Mär. 2024 (CET)Beantworten
Hallo, ich habe vor Kurzem eine m.E. verständliche Kurzfassung für KNN auf Basis einer Quelle aus dem englischen Wiki-Artikel erstellt, als ich einen Absatz dazu im Artikel zum Machinellen Lernen ergänzt habe. Siehe Maschinelles_Lernen#Künstliche_Neuronale_Netze. Ich schlage vor, dass ich die ersten beiden Absätze in die Einleitung des Artikels KNN einarbeite. Was meint ihr dazu? --Buecherdiebin (Diskussion) 10:36, 3. Apr. 2024 (CEST)Beantworten
Hallo Buecherdiebin, für mich ist das in Ordnung. "Modell", "statistisches Modell" oder "mathematisches Modell", aber sich nicht Computerprogramm oder Software. Vielleicht statt "Tiergehirn" einfach "Gehirn"?--Tensorproduct 21:03, 4. Apr. 2024 (CEST)Beantworten
Hallo, ich habe die Einleitung eben überarbeitet. --Buecherdiebin (Diskussion) 12:03, 5. Apr. 2024 (CEST)Beantworten
Sieht gut für mich aus. Danke.--Tensorproduct 09:43, 6. Apr. 2024 (CEST)Beantworten


Ende QS

[Quelltext bearbeiten]

3 Wochen lang hat jetzt mein Vorstoß, den Artikel laientauglich zu machen, dröhnendes Schweigen seitens der fachlichen Community gesehen, neben immerhin einer dankenswert ausführlichen Ablehnung meines Textvorschlags (siehe Diskussion:Künstliches_neuronales_Netz#Grundsätzliches_fehlt) durch Tensorproduct und einem kleinen Schritt zur Verbesserung des Textes durch Buecherdiebin. Damit sehe ich meine QS-Meldung als erfolglos an und ziehe sie trotz Fortbestehen der Mängel zurück. Leitlinie bei meinem Vortsoß ist

Die Wikipedia ist eine allgemeine Enzyklopädie und kein Fachbuch. Sie soll auch für Laien verständlich sein. Erfordert das Verständnis des Themas ein spezielles Wissen, sollte daher die Einleitung den Artikelgegenstand nicht nur definieren, sondern auch knapp umschreiben und allgemein verständlich ausgedrückt in sein Umfeld einordnen. Bei schwer verständlichen Themen hat es sich bewährt, die Einleitung möglichst einfach und laientauglich zu gestalten und Details oder exakte Zusammenhänge erst im Hauptteil zu erläutern. (Aus [Wikipedia:Wie_schreibe_ich_gute_Artikel#Verständlichkeit])

Nur als Beispiel, wie weit hier die Vorstellungen von dem, was Wikipedia kann (oder können sollte), auseinander liegen, erwähne ich noch einen der in der Kritik genannten Belege, die gegen eine Vorstellung des KNN als "Computerprogramm" sprechen und damit den damaligen allerersten Einleitungssatzes als besser geeignet zeigen sollten. Tensorproduct führt an:

  • "Berndt Müller, Joachim Reinhardt, Michael T. Strickland - Neural Networks: An Introduction" definiert ein KNN als ein gerichteter Graph (Seite 13).

Vollständig(er) lautet das Zitat:

  • "Neural network models are algorithms for cognitive tasks, such as learning and optimization, which are in a loose sense based on concepts derived from research into the nature of the brain. In mathematical terms [meine Hervorhebung] a neural network model is defined as a directed graph with the following properties: " (und dann geht es schon in die Einzelheiten) .....

Allein, dass dieser letzte Halbsatz aus einem Universitätslehrbuch herausgegriffen und als als Argument für die Angemessenheit des bestehenden Textes angeführt wird, lässt weitere Diskussion für mich hoffnungslos erscheinen. (Die Alten unter uns mögen sich erinnern, dass für fachliche Blindheit solcher Art zu Beginn der Studentenbewegung ein neues Wort erfunden und per Flugblatt verbreitet wurde, wonach die Erfinder sich vor der deutschen Justiz ins damals noch sichere Franco-Spanien flüchten mussten. Wie weit solche Art Blindheit in der zuständigen community schon verbreitet ist, kann man auch darin sehen, dass manche Informatiker/innen ein KNN für peer reviews nutzen, um also die wissenschaftliche Qualität neuer Arbeiten zur Informatik zu bewerten. Kann es ein Trost sein, dass sie das bisher verheimlichen?)

Und noch eine Replik auf die obige Kritik, man solle das KNN nicht bei der ersten Vorstellung als "Computerprogramm" einführen: Types_of_artificial_neural_networks in der englischen Wikipedia beginnt mit: Artificial neural networks are computational models [m. H.] inspired by biological neural networks, and are used to approximate functions that are generally unknown. Kann dann ja wohl so abwegig doch nicht sein, besonders im Hinblick auf die Laienleserschaft, die wir (neben MINT-Studierenden etc) auch haben wollen. --Bleckneuhaus (Diskussion) 02:14, 16. Apr. 2024 (CEST)Beantworten

Du verdrehst hier jetzt etwas die Dinge. Ich habe nie deinen vollständigen Text abgelehnt, noch war ich gegen eine Bearbeitung des Textes. Mir ging es einzig um die Aussage, dass ein KNN ein Computerprogramm ist, was falsch ist. Und ich sage es jetzt direkt, ich habe nicht das Gefühl, dass du dich wesentlich mit künstlichen neuronalen Netzwerken beschäftigt hast. Du wusstest nicht mal, dass das ein "statistisches Modell" ist und man dem auch "statistisches Lernen" sagt. Mir als Mathematiker, der sich mit Statistik beschäftigt hat, sagt das, dass du dich nicht wirklich grossartig mit Machine Learning beschäftigt hast. Sowas lernt man in einem Machine-Learning-Kurs. Warum hast du dir dann nicht zuerst einfach ein Machine-Learning-Buch gekauft und das gelesen? Dann wiedersprichst du mir und ich muss mit dir Dinge wie das Wort "statistisch" diskutieren, was für mich auch frustrierend ist, weil ich denke, du hättest dich einfach etwas bessser informieren können. Ich habe mich intensiv mit neuronalen Netzwerken beschäftigt, dass ist auch frustrierend für mich. Jetzt zur Bücherwahl, ich habe extra ein Buch aus der Neuroinformatik genommen, weil du ja das Argument vorgeschoben hast, dass es für Anfänger verständlich sein soll. Ich hätte auch 10 Bücher aus der Statistik und dem Machine Learning nehmen könnnen, dann wäre nicht einmal das Wort Computerprogramm vorgekommen. Mir ist das jetzt schon öfters aufgefallen, dass es hier einfach immer wieder vorkommt, dass Autoren über Dinge schreiben, ohne sich damit vorher wirklich zu beschäftigen und sich an richtige Quellen zu halten. Es gab mal einen Physiker, der in den Artikel stochastische Prozesse reingeschrieben hat, ein stochastischer Prozess wäre dasselbe wie eine Wahrscheinlichkeitsverteilung. Da muss ich intervenieren, weil die Studenten nicht solche falschen Dinge lernen sollen.-Tensorproduct 07:12, 16. Apr. 2024 (CEST)Beantworten
@Bleckneuhaus Hallo, ich glaube, du machst einen im Deutschen naheliegenden Übersetzungsfehler (falscher Freund). Deepl schlägt als Übersetzung von "computational model" vor: Rechenmodell, mathematisches Modell, Modellrechnung....
Allgemeinverständliche Grundlagen zum Maschinellen Lernen, die u.a. auch KNN betreffen, stehen im Artikel "Maschinelles Lernen". Vielleicht klärt dieser Artikel, auf den KNN am Anfang verlinkt, das, was du noch vermisst. --Buecherdiebin (Diskussion) 08:05, 16. Apr. 2024 (CEST)Beantworten

Danke für die Antworten, auch wenn sie mE meilenweit am Hauptproblem vorbeigehen. Ich jedenfalls sehe das Hauptproblem darin, dass der Artikel dem Leitsatz Die Wikipedia ist eine allgemeine Enzyklopädie und kein Fachbuch. Sie soll auch für Laien verständlich sein. (Quelle s.o.) nicht genügt. Mich würde ungeheuer interessieren, ob Ihr das anders seht. (Habt Ihr den Artikel jemals einem OMA-Test unterzogen? Odere wenigsten einem Laien mal versucht, zu erklären, was KNN ist oder macht? Ich schon, und auch meinen Textvorschlag von vor drei Wochen.)

Etwas detaillierter gesagt: Zu KNN gibt es grob gesagt Forschung, Entwicklung und Nutzung. Die Nutzer dürften unter den Lesern, die sich bei Wikipedia etwas näher informieren wollen, weitaus in der Überzahl sein. (Stimmt Ihr zu?) Der Artikel ist aber sehr eindeutig aus der Sicht von Forschung und Entwicklung (und fachlicher Lehre) geschrieben, und nimmt auf die erstgenannte Gruppe keine Rücksicht. (Stimmt Ihr zu?) Wie das (ggflls.) behoben werden könnte, darüber würde ich gerne diskutieren.

Zu den anderen Punkten (die aber wirklich peanuts sind, im Vergleich zum Vorigen): Dass ich kein KNN-Experte bin, stand schon "proaktiv" in meinem ersten QS Eintrag. (Meine letzte intensivere Beschäftigung mit maschinellem Lernen ist 60 Jahre her, als wir aus Spaß für eine RPC4000 ein Programm mit den Regeln des Nim-Spiels schrieben, das aus den Erfahrungen gewonnener und verlorener SPiele die erfolgreichen Zahlenfolgen lernen sollte. Als wir es einmal absichtlich mit irreführenden Beispielen trainiert hatten, bogen wir uns vor Lachen, als das Programm dann plötzlich umlernen musste. Man konnte das damals an den Lämpchen direkt mitverfolgen. Anekdote off.) Was sonst mein Hintergund ist, steht zB auf meiner Nutzerseite oder lässt sich den Autorenstatistiken vieler Physik-Artikel entnehmen. - Tausend Dank auch für den Tipp, doch mal ein Fachbuch anzusehen! Das hab ich sogar gemacht, um das o.a. Zitat zu überprüfen. Und zwar 10.000 km von "meiner" UB entfernt in der Pampa, weil ich da gerade bin. Ich frage mich, ob Eure IT-Studis (wer denn sonst!) sich solche Fachbücher nicht auch online beschaffen können, sondern stattdessen auf Wikipedia angewiesen sind. Meines Erachtens ist das eine Fehlentwicklung, der man anders begegnen muss als dadurch, die Wikipedia entgegen ihren Grundsätzen zu einer Fachbuchsammlung zu machen, die der (vermuteten) großen Mehrheit der Nutzer nichts mehr nützt. Am Ende entstünde dann nur Bedarf nach einer neuen laientauglichen Wikipedia, und alles würde sich dann wiederholen. - Ich habe keine Übersetzung von computational modell als Computerprogramm vorgeschlagen, sondern bei meinem Hinweis die assoziative Brücke im Auge gehabt, dass ein KNN für die (bewussten oder unbewussten) Nutzer im Allgemeinen als ein bestimmtes Berechnungsverfahren nach Computerart erscheint, entsprechend dem, was erst die menschlichen und dann die maschinellen Computer eben täglich ausführ(t)en. Daran ändert sich auch nichts, wenn das Programm aus Forschung, Entwicklung, Training etc. hervorgegangen ist. - Ich freue mich auf Eure Antwort (und bitte möglichst zum Kern der Sache). --Bleckneuhaus (Diskussion) 01:30, 17. Apr. 2024 (CEST)Beantworten

Es geht nicht um "Allgemeinverständlichkeit", sondern darum, dass du das so interpretierst, aber es nicht stimmt. Du musst uns nicht erzählen, dass ein Laie zwar das Wort "Computerprogramm" versteht, aber das Wort "Modell" nicht kennt. Eine Enzyklopädie sollte in erster Linie richtig sein und es sollte nicht das stehen, was ein einzelner Benutzer "interpretiert". Ein KNN modelliert etwas und ist per se keine Software. Nach deiner "Logik", müssten wir dann auch die newtonischen Gesetze und den harmonischen Oszillator als Software bezeichnen, bist du damit einverstanden? Deine Argumentation war ja, dass der Computer das viel besser als der Mensch auf Papier berechnen und simulieren kann.... Dann können wir ja auch noch das Auto als Computer bezeichnen, weil die heutigen Autos besitzen ja eine Software. Ergo unterscheidet sich das Auto oder die Waschmaschine im Kern nicht vom Commodore 64. Das wäre dann "allgemein verständlich", wenn wir alles Software/Computer bezeichnen.
Ja, dann erzähl mal, welches Machine Learning Buch du gelesen hast und wie dort ein KNN definiert ist.--Tensorproduct 07:07, 17. Apr. 2024 (CEST)Beantworten
Hallo Bleckneuhaus, wir können gerne gemeinsam versuchen eine sowohl korrekte und quellenbasierte als auch verständliche Einleitung zu finden. Dazu möchte ich dich bitten, kurz zu formulieren, welche Formulierung der aktuellen Einleitung aus deiner Sicht unverständlich ist. Das konnte ich deinen letzten Kommentaren leider nicht entnehmen, soviel zum Kern :-). Ich habe auf die Aktivierungsfunktion getippt und das gerade etwas besser erklärt - aus meiner Sicht natürlich. Die beste Erklärung für Jugendliche gibt es aus meiner Sicht übrigens auf Youtube im Christmas Special von 2023 von der Royal Institution ab Minute 20 [2]. Grüße, --Buecherdiebin (Diskussion) 14:59, 17. Apr. 2024 (CEST)Beantworten

Hallo Bücherdiebin, Deine jüngsten Verbesserungen gehen für mich alle in die richtige Richtung. Bedankt hatte ich mich, unbemerkt aber leider ausgerechnet für die einzige Änderung, die ich dann lieber rückgängig gemacht habe. Das Thema Aktivierungsfunktion war tatsächlich einer der größeren Schwachpunkte gewesen. Es fehlt mir aber noch mehr, und ich bin (noch) am Zusammenstellen einiger weiterer Punkte. --Bleckneuhaus (Diskussion) 20:11, 18. Apr. 2024 (CEST)Beantworten

Stichpunkte für Laienverständlichkeit

[Quelltext bearbeiten]

Hier ein paar Vorschläge, um die Laienverständlichkeit zu heben (wobei ich nochmal betonen möchte, dass ich hinsichtlich der KNN vielleicht weniger nachhaltige Erfahrungen habe als hinsichtlich der Laienverständlichkeit):

  1. Der 1. Satz, besser auch der ganze 1. Absatz, sollte nach Möglichkeit (das kann immer nur graduell gemeint sein) barrierefrei zu verstehen sein.
  2. Lässt sich aus dem Folgenden was machen?: 1. Satz: KNN gehören zu den wichtigsten universellen mathematischen Hilfsmitteln des maschinellen Lernens und der KI. (Von KI haben schon mehr Laien gehört, vermute ich, als vom maschinellen Lernen und mathematischen Modellen. Mit "Modell" als Erklärung für irgendwas habe ich sowieso eine leichte Abwehr - da dürften den meisten eher zunächst Fotomodelle, Automodelle, Modelleisenbahn etc in den Sinn kommen.)
  3. 2. Satz - warum sind sie das? KNN können Eingabedaten beliebiger Art aufnehmen und anhand von zahlreichen Beispielen darauf trainiert werden, mit großer Treffsicherheit die mit den Beispielen vorgegebenen Ausgaben zu erzeugen.
  4. Dann (oder auch etwas später) wären vielleicht ein paar Beispiele aus der aktuellen öffentlichen Diskussion erwähnenswert.
  5. Ein Satz, um bei Laien eine Vorstellung zu erzeugen, was unter der Decke abläuft (sicher in keiner Weise ausreichend fürs Lernen im Studium!) Ein KNN ist ein (mathematisches? gab es wirklich niemals fest verdrahtete?) Netz aus Schichten von künstlichen Neuronen, in dem die Eingabedaten über die vielfachen Verknüpfungen der Neuronen untereinander erst verteilt, bewertet und dann wieder kombiniert und weitergegeben werden, bis die Neuronen erreicht sind, die die Ausgabe erzeugen.
  6. Im maschinellen Lernen während des Trainings werden die Verknüpfungen schrittweise so verändert/justiert/nachjustiert, dass die Treffsicherheit der Ergebnisse ein Optimum erreicht.

Ich könnte mir vorstellen, dass aus diesen Sätzen ein 1. Absatz zusammengebaut werden kann, der laienverständlich ist, ohne fachlich anzuecken. --Bleckneuhaus (Diskussion) 21:30, 19. Apr. 2024 (CEST)Beantworten

Danke, jetzt verstehe ich besser, was dich stört. Ich überlege mir nächste Woche was dazu. Eine spontane Rückmeldung kann ich schon geben: Ich kenne keinen Laien, von dem ich vermute, dass er sich unter der Formulierung "eines der wichtigsten universellen mathematischen Hilfsmittel" mehr vorstellen kann als unter "mathematisches Modell", also werde ich beides vermeiden. Grüße, --Buecherdiebin (Diskussion) 08:25, 20. Apr. 2024 (CEST)Beantworten
Viel Glück bei der Suche! Lass meinetwegen "universell" weg, evtl. sogar auch "mathematisch", aber ein Substantiv im ersten Satz scheint mir sehr angebracht für das "Ding" mit Fachnamen KNN. Daher war ich ja auf das Unwort C...P... gekommen. "Hilfsmittel" oder "Werkzeug" scheinen mir dafür nicht schlecht. ("Arbeitselefant" oder "Arbeitspferd" wären auch nicht schlecht, aber natürlich unpassend.) Es kommt mE auch nicht so sehr darauf an, ob die Laien sich darunter wirklich "etwas" bestimmtes "vorstellen" können, sondern ob es ihnen (wenn sie in ganz anderen Gebieten zu Hause sind) beim Einordnen und Hinführen in den Artikel hilft. (Wobei wir alle uns hier ohne empirische Grundlage natürlich nur auf naheliegende Vermutungen stützen können.) --Bleckneuhaus (Diskussion) 20:09, 20. Apr. 2024 (CEST)Beantworten
Die Vermutung, unter "Laienverständlichkeit" sei etwa das zu verstehen, was da nach Meinung von Laien stehen solle, ist weder naheliegend noch belastbar. --176.3.85.226 10:40, 22. Apr. 2024 (CEST)Beantworten
Hallo IP: Es wäre wohl besser, sich auf die Ebene der Formulierungsvorschläge zu konzentrieren statt auf irgendeiner Metaebene anonym aphoristisch klingende Anmerkungen dazu zu machen, wer hier was vorschlagen darf und wer nicht. --Bleckneuhaus (Diskussion) 01:23, 24. Apr. 2024 (CEST)Beantworten
Oh, besser wäre es, auch bei Vorschlägen auf Grundlage persönlicher Interpretationen zwischen allgemeinverständlichen und missverständlichen Formulierungen zu unterscheiden. Manchen mögen Vorstellungen wie menschliche Computer oder künstliche Gehirne zum Einordnen dienen, doch sind sie irreführend. --176.3.65.56 08:06, 24. Apr. 2024 (CEST)Beantworten
Moin, ich habe heute den ersten Abschnitte der Einleitung zum "Maschinellen Lernen" entsprechend überarbeitet und danach gekürzt zum KNN übernommen. Rückmeldungen willkommen. Grüße, --Buecherdiebin (Diskussion) 12:15, 22. Apr. 2024 (CEST)Beantworten
Auch moin! Hab ich schon gesehen und bedankt. Das geht sehr gut in die von mir angepeilte Richtung. Besonders zum ersten Satz kann ich gratulieren, er ist zwar ein bisschen lang, aber den Nebnsatz deren Lösung nicht mit Regeln beschrieben werden kann würde ich noch mit algorithmisch anreichern. Eine bessere Formulierung, worin sich KNN von Algorithmen unterscheiden (obwohl sie doch beim Training und danach rein algorithmisch vorgehen), habe ich noch nicht gelesen. Ein paar Textstellen möchte ich noch "entgraten" (sobald ich dazu komme). --Bleckneuhaus (Diskussion) 19:03, 22. Apr. 2024 (CEST)Beantworten
@Buecherdiebin Also ich finde die jetzige Einleitung mit "sind Methoden, mit denen Computer lernen können, Probleme zu lösen, deren Lösung nicht mit Regeln beschrieben werden kann,.." eine klare Verschlechterung zur vorherigen Version mit dem "Modell". Was soll man sich unter "Methode" vorstellen? Das ist ein ungenauer Begriff - alle wissenschaftlichen Konzepte können als "Methoden" bezeichnet werden. Der Satz trifft auf jedes statistische Modell zu. Ein KNN ist ein "künstliches" Modell eines biologischen Modells: dem neuronalen Netzwerk. Deshalb heißt es ja auch "künstliches neuronales Netzwerk". Das ist die Eigenschaft, welche ein KNN wirklich charakterisiert und von anderen Modellen unterscheidet. Der jetzige Satz ist auch sehr holprig zu lesen. Des Weiteren ist der Satz m. E. auch nicht richtig, weil ein Computer nicht wirklich lernt (auch wenn es Machine Learning heißt) und die Lösung des Optimierungsproblem der Verlustfunktion mathematisch beschrieben werden kann.--Tensorproduct 19:38, 22. Apr. 2024 (CEST)Beantworten
Hallo @Tensorproduct, danke für den Hinweis zum ersten Satz. Ich habe die Reihenfolge geändert.
Ich bin nicht sicher, ob ich deinen Einwand zu "wirklich lernen" und dem Optimierungsproblem richtig verstehe.
Mein Verständnis: Das Modell lernt einen Lösungsweg oder eine Funktion, mit der es neue Ausgaben aus neuen Eingaben berechnet. Die gefundene Funktion kann nicht zu 100% korrekt sein. Es sei denn, dass das Problem genau dem gewählten Modell entspricht. In diesem Fall gibt es aber keinen Grund, ML einzusetzen.
Hast du das gemeint? Wäre "lernt einen angenäherten Lösungsweg" oder ähnlich besser? Grüße, --Buecherdiebin (Diskussion) 20:33, 22. Apr. 2024 (CEST)Beantworten
@Buecherdiebin 1) Das kommt halt darauf an, was du unter "Lernen" verstehst. "Statistisches Lernen" ist nicht gleich "Lernen" wie wir es vom Menschen kennen. Ein neuronales Netzwerk kann sich nicht an neue Gegebenheiten anpassen, ausser es wurde darauf trainiert. 2) Du schreibst: "deren Lösung nicht mit Regeln beschrieben werden kann", aber man weiß ja, was man optimieren möchte (die Verlustfunktion), ergo hat man ja eine Beschreibung, wie dieses Optimum aussieht. Gäbe es keine Regeln, dann könnte man ja auch kein KNN trainieren.--Tensorproduct 20:52, 22. Apr. 2024 (CEST)Beantworten
@Tensorproduct Danke für die schnelle Klärung. 1) Sehe ich auch so. 2) Das ist spitzfindiger, als ich erwartet habe ;-). Die Optimierung der Verlustfunktion beschreibt allerdings m.E. nicht die Lösung für ein beliebiges gegebenes Problem, sondern die Lösung für das Problem, wie man mit ML eine angenäherte Lösung für beliebige gegebene Probleme finden kann, wenn hinreichend viele Daten verfügbar sind. Das ist für mich nicht dasselbe. Grüße, --Buecherdiebin (Diskussion) 21:27, 22. Apr. 2024 (CEST)Beantworten

Ein paar Verbesserungsvorschläge (bezogen auf den Ist-Stand) für die Formulierung in Richtung Laientauglichkeit:

  • Statt Probleme lösen besser auf Fragen Antworten ausgeben (o.ä.). "Lösen von Problemen" scheint eher eine schlechte Übersetzung von problem solving und geht, so wie es im Artikel gemeint ist, am Alltagsgebrauch weit vorbei. Auch wäre es besseer, nicht später plötzlich von Aufgaben zu reden, wenn dasselbe gemeint ist. Laien kann das verwirren, weil sie nicht wissen, ob mit dem neuen Wort auch etwas Neues gemeint ist, was sie aber nicht verstehen.
  • Dass das KNN selber nach einem Lösungsweg sucht, klingt unnötig vermenschlicht. Das KNN ist halt so programmiert und folgt lediglich einem Algorithmus (der hoffentlich den Lösungsweg approximiert).
  • Das sogenannte bei Aktivierungsfunktion ist überflüssig (bei so viel anderen Fachwörtern, die genauso als sogenannt eingeführt werden könnten). Ein Wikilink ist da eher angebracht.
  • Ist es wichtig, dass die Anfangswerte zufällig gewählt sind? Wichtig ist doch wohl, dass sie in der Regel ziemlich ungeeignet sind.
  • Die Anpassung erfolgt schrittweise, nicht kontinuierlich.
  • beispielsweise sollte näher an dem Beispiel stehen (und dieses selbst sollte man auch klarer ausdrücken).

Alles zusammen und noch ein paar Kleinigkeiten haben mich zu einem geänderten Text geführt, den ich mit aller Vorsicht hier einmal vorstelle:

Künstliche neuronale Netze, auch künstliche neuronale Netzwerke, kurz: KNN (englisch artificial neural network, ANN), sind Netze aus künstlichen Neuronen, die von den Netzwerken inspiriert wurden, wie sie von den biologischen Neuronen in Gehirnen gebildet werden. Sie werden eingesetzt, um mit Computern die Antwort auf Fragen zu finden, bei denen der Weg zur richtigen Antwort nicht mit festen Regeln  (also algorithmisch) beschrieben und direkt programmiert werden kann. Voraussetzung ist, dass es viele Daten gibt, die als Beispiele für die Frage und die jeweils gewünschte Antwort dienen können. 
Diese Beispiele dienen zum Training des KNN. Dabei werden die Antworten, die das KNN gibt, mit den gewünschten Antworten verglichen und aus den Abweichungen durch einen Algorithmus ermittelt, wo und wie das KNN modifiziert werden muss. So wird das zunächst unwissende KNN schrittweise verbessert, damit es für möglichst viele Beispiele die richtige Antwort ausgibt.
KNN bilden die Basis für Deep Learning, das ab 2006 erhebliche Fortschritte bei der Analyse von großen Datenmengen erlaubte. Erfolgreiche Anwendungen des Deep Learning sind beispielsweise Bilderkennung und Spracherkennung.[1]
Biologische Neuronen sind miteinander vernetzt und in Schichten organisiert. Sie können mehrere Eingangssignale aufsummieren und geben nur dann ein Signal an andere Neuronen weiter, wenn die Summe der Eingangssignale einen Schwellenwert erreicht.
Ein KNN wird von künstlichen Neuronen gebildet, die miteinander verbunden sind und in der Regel auch in Schichten organisiert werden. Künstliche Neuronen bilden die Fähigkeit von biologischen Neuronen, Eingangssignale zu summieren und erst oberhalb eines Schwellwerts weiterzuleiten, mit einer Aktivierungsfunktion nach. Zusätzlich werden die Verbindungen gewichtet. Dadurch kann jedes Eingangssignal die Summe unterschiedlich stark erhöhen oder reduzieren. Eine verbreitete Form der Aktivierungsfunktion berechnet die Summe aller gewichteten Eingangssignale und legt sie als Signal auf alle Ausgänge des Neurons, wenn sie einen bestimmten Schwellenwert überschreitet. Wenn die Summe unter dem Schwellenwert liegt, erzeugt die Aktivierungsfunktion kein Ausgangssignal.[2][3]:37
Die Signale wandern von der ersten Schicht (der Eingabeschicht) zur letzten Schicht (der Ausgabeschicht) und durchlaufen dabei möglicherweise mehrere Zwischenschichten (versteckte Schichten). Jede Schicht kann die Signale an ihren Eingängen unterschiedlich transformieren. Ein Netz mit vielen verborgenen Schichten kann die Beantwortung einer komplizierten Frage in mehrere einfachere Aufgaben zerlegen, die jeweils in verschiedenen Schichten des Modells ausgeführt werden.[2] Ein solches KNN wird auch als tiefes neuronales Netz bezeichnet. Darauf bezieht sich der Begriff „Deep Learning“.[4]
Zu Beginn des Trainings stehen alle Schwellenwerte und Gewichte auf frei gewählten und in der Regel nur wenig geeigneten Werten. Während des Trainings werden die Werte schrittweise so angepasst, dass das Netz für möglichst alle Daten, mit denen es trainiert wird, eine möglichst richtige Antwort ausgibt. Das Training wird beendet, wenn ein befriedigender Grad der Übereinstimmung erreicht ist.[2]
Das Erstellen eines geeigneten Trainingsdatensatzes kann sehr schwierig sein, da man verhindern muss, dass die Daten Muster enthalten, die das Netz nicht zur Entscheidung heranziehen soll. Um zu prüfen, welche Muster ein KNN wirklich lernt, arbeitet das Forschungsgebiet Explainable Artificial Intelligence an Verfahren, mit denen man beispielsweise nachvollziehen kann, welchen Teil eines Bildes ein KNN betrachtet, um das Bild zu klassifizieren. Dabei entdeckten die Forscher auch ein KNN, das Eisenbahnzüge erkennen sollte, aber dabei nur auf Schienen achtete.[3]:54
KNNs sind Forschungsgegenstand sowohl des Maschinellen Lernens, welches ein Teilbereich der künstlichen Intelligenz ist, als auch der interdisziplinären Neuroinformatik. Das Nachbilden eines biologischen neuronalen Netzes von Neuronen ist eher Gegenstand der Computational Neuroscience. (nicht signierter Beitrag von Bleckneuhaus (Diskussion | Beiträge) 05:54, 23. Apr. 2024 (CEST))Beantworten
Ich habe keine Zeit um auf alle Punkte einzugehen, deshalb fokusiere ich mich nur auf den ersten Punkt. Die Aussage "auf Fragen eine Antwort geben" ist jetzt wieder deine Interpretation eines KNN. Für mich sieht es so aus, als ob du die Gleichung "KNN = ChatGPT" machst. Das ist aber falsch. Vielleicht hilft das dem Laien, aber sicher nicht den Personen, die etwas über KNN lernen möchten, da es eine Interpretation ist. Nicht jedes KNN ist auch ein Large Language Modell, die wenigsten sind das. Es gibt dutzende andere Modelle. Dazu kommt, dass der Satz "um mit Computern Probleme zu lösen, deren Lösung nicht mit Regeln beschrieben werden kann" a priori auch nicht richtig ist. 1) Kennen wir die Regeln, sonst könnten wir kein KNN trainieren 2) Sobald ein KNN trainiert hat, so kennt man auch die Funktion, welche das KNN modeliert. Man kann das Ganze nachrechnen, man weiß theoretisch welche Features zu welchem Resultat führen.--Tensorproduct 07:03, 23. Apr. 2024 (CEST)Beantworten
Ich habe ein Beispiel ergänzt, in der Hoffnung, dass es alle Missverständnisse zu Punkt 1 aufklärt. Und noch ein paar Kleinigkeiten geändert. Ich finde, so könnte es bleiben. --Buecherdiebin (Diskussion) 11:42, 23. Apr. 2024 (CEST)Beantworten
Also die Aussage: "deren Lösung man nicht mit Regeln beschreiben kann" halte ich nicht für korrekt. Gemeint ist wohl eher, dass die Lösungsfunktion zu komplex ist, um sie zu finden und man deshalb ein KNN verwendet?--Tensorproduct 20:09, 23. Apr. 2024 (CEST)Beantworten
Dann stelle ich die Frage mal anders: Was ist aus deiner Sicht ein allgemeinverständlicher und korrekter Grund dafür, ML einzusetzen? Ich habe die Formulierung auf Seite 8 einer Studie vom Fraunhofer-Institut gefunden [3] und finde sie verständlich und einleuchtend. Im Artikel liefer ich die Referenz nach, wenn wir uns geeinigt haben. --Buecherdiebin (Diskussion) 20:25, 23. Apr. 2024 (CEST)Beantworten
Ja eben, die Komplexität. Theoretisch kann ich schon eine Funktion finden, die zum Beispiel Mails in "Spam" und "nicht Spam" unterteilt (mit einer bestimmten Genauigkeit). Beispielsweise könnte ich jedem Wort einen Wert zu weisen und dann die Texte so analysieren. Es wäre nur sehr viel Aufwand. Der Vorteil bei einem KNN liegt aber in der Graph-Struktur, weshalb sehr viele Features schnell erfasst werden können.--Tensorproduct 20:43, 23. Apr. 2024 (CEST)Beantworten
Ich habe das Wort kompliziert mit rein genommen. Jetzt ok? --Buecherdiebin (Diskussion) 20:52, 23. Apr. 2024 (CEST)Beantworten
Ja, viel besser! Danke.--Tensorproduct 21:03, 23. Apr. 2024 (CEST)Beantworten

"Die Wikipedia ist eine allgemeine Enzyklopädie und kein Fachbuch. Sie soll auch für Laien verständlich sein."

[Quelltext bearbeiten]

Teilt jemand aus der KNN- oder ML-community, die doch hoffentlich hier mitliest, diesen Grundsatz aus den Wikipedia-Grundlagen (neben Buecherdiebin, bei der ich das annehme)? Aufgrund der obigen Diskussion (insbsondere mit Tensorproduct) habe ich bisher nicht den Eindruck.

Aus diesem Grundsatz folgt mE unter anderem: Wenn sich Alltagsworte trotz ihrer typischen Unschärfe als Bezeichner für speziell gebildete Fachbegriffe eingebürgert haben, und auch in den Fachbüchern praktisch ausschließlich so benutzt werden, dann kann es für einen guten Artikel angebracht sein, die einführenden Beschreibungen nicht so zu formulieren wie in den Fachbüchern.

Das gilt (oder galt) hier für Worte wie "Modell", "statistisch", "lernen", "Problem lösen", "kontinuierliche Anpassung", und das sind nur ein paar Beispiele. --Bleckneuhaus (Diskussion) 03:19, 24. Apr. 2024 (CEST)Beantworten

Wenn "Laienverständlichkeit" heißt, dass in der Wikipedia falsche Aussagen und Interpretationen stehen sollen, dann bin ich dagegen. Was nützt uns eine Enzyklopädie, wenn sie niemand gebrauchen kann. Dann können wir das KNN auch gleich als "Zaubermaschine" bezeichnen, dann versteht es dann auch der 5-Jährige.--Tensorproduct 06:57, 24. Apr. 2024 (CEST)Beantworten
Ich stimme Tensorprodukt zu. Mein Anspruch ist, dass eine Person, die zur ersten Orientierung einen Wiki-Artikel liest und danach ein Fachbuch zur Vertiefung liest, dabei das Gefühl hat, dass sie ihr Wissen aus dem Artikel erweitert und nicht überrascht feststellt, dass sie noch mal ganz von vorne anfangen muss.
Dass ich den letzten Einwand von Tensorprodukt erst mal nicht nachvollziehen konnte und noch 2mal nachgefragt habe, lag einfach daran, dass ich ausdauernd auf dem Schlauch gestanden habe. Heute ist es mir endlich eingefallen: Natürlich gibt es auch Probleme, die man tatsächlich nicht mit Regeln lösen kann, wie die Berechnung der soundsovielten Primzahl. Da hilft ML dann auch nicht weiter. Das habe ich völlig verdrängt, deshalb war meine vorletzte Formulierung mehrdeutig und das haben wir gemeinsam korrigiert. Alles gut :-)
Unabhängig davon bin ich davon überzeugt, dass man die Grenzen von ML nur einschätzen kann, wenn man versteht, dass das "gelernte" Wissen (egal ob KNN oder ein anderes Modell) vollständig auf Statistik beruht. Diesen Begriff als unverständlich zu "verbieten" macht wirklich keinen Sinn. KI kann wiederum mehr tun, nämlich ML mit menschlichem Wissen (Beispiel Knowledge Graph) kombinieren. Ich glaube, soviel Information kann man Laien durchaus zumuten. Ich stimme Bleckneuhaus darin zu, dass das bisher nicht leicht verständlich im deutschen Wiki steht. Ich habe vor einiger Zeit angefangen, den vorher lückenhaften Artikel zum ML zu überarbeiten. Ich komme vermutlich in den nächsten Wochen bis Monaten dazu, Informationen zu Chancen, Risiken und Grenzen zu ergänzen.
Grüße, --Buecherdiebin (Diskussion) 16:26, 24. Apr. 2024 (CEST)Beantworten
Allgemein sollte versucht werden, alles in die Einleitung zu packen - die wird sonst zu dicht; der Versuch alles in ein paar Sätzen zu erklären führt nicht zu mehr Verständlichkeit. besser ist es im Artikel von Grund auf eine Herleitung des Themas zu schreiben. --Stauffen (Diskussion) 17:11, 24. Apr. 2024 (CEST)Beantworten
Ich vermute, im Kommentar von Stauffen fehlt ein "nicht". Nachdem ich auf Wunsch von Bleckneuhaus viel Kontext ergänzt habe, die Einleitung dadurch länger und länger wurde und wir inzwischen anscheinend einen Stand erreicht haben, der akzeptiert ist, habe ich heute noch die Referenzen verbessert/ergänzt, einzelne Stellen leicht verbessert und danach den Inhalt auf zwei Abschnitte aufgeteilt. Grüße, --Buecherdiebin (Diskussion) 18:33, 24. Apr. 2024 (CEST)Beantworten
Hallo @Buecherdiebin, das Problem bei Primzahlen ist nicht, dass man sie nicht mit Regeln berechnen kann. Das kann man tatsächlich mit dem Sieb von Eratosthenes oder dem modernen Sieb von Atkin (siehe Primzahlgenerator oder auch die mathematische Theorie dazu: Siebtheorie). Das Problem ist, dass diese Algorithmen "ineffizient" sind (sie haben eine hohe Komplexität).--Tensorproduct 21:50, 24. Apr. 2024 (CEST)Beantworten
Stimmt. Ein verständliches Beispiel für ein Problem zu finden, das ML wegen fehlenden Regeln nicht lösen kann, ist schwieriger als erwartet (abgesehen von weißem Rauschen bzw rein zufälligem Verhalten). Zu den Primzahlen habe ich mich nur auf folgende Aussage aus dem Artikel zum Primzahlengenerator bezogen: "insbesondere existiert keine praktikable geschlossene Formel zur Generierung von Primzahlen".
Allerdings ist Primzahlengenerierung zwar wegen der fehlenden Regelmäßigkeit ein naheliegendes Beispiel, eine angenäherte Lösung wäre für diese Problem aber auch keine echte Verbesserung - und das ist vermutlich wirklich ein KO-Kriterium für den Einsatz von ML. Dasselbe gilt für die Nachkommastellen von pi. Kennst du ein verständliches Problem, das ML nicht lösen kann, weil es garnicht durch Regeln beschrieben werden kann? --Buecherdiebin (Diskussion) 23:08, 24. Apr. 2024 (CEST)Beantworten
Hallo @Buecherdiebin, das Wort statistisch (als eins der Beispiele) soll natürlich nicht "verboten" werden (danke, dass Du das wenigstens in ".." gesetzt hast), sondern nur nicht den Laien umstandslos so vorgesetzt werden, als ob sie neben der üblichen Alltagsbedeutung auch die spezielle Fachbedeutung selbstverständlich beherrschen würden. Dann braucht auch keiner der künftigen IT-Studis, die hier ja so heftig umsorgt werden, beim ersten Fachbuch alles neu zu lernen. (Glaub mir, in Physik haben wir das gleiche Problem, siehe zB Wärme, Kraft etc.). -
Ansonsten, finde ich ja, hat der Artikel schon merklich gewonnen. Doch obwohl mir die Veränderungen noch längst nicht weit genug gehen, ziehe ich mich hiermit zurück, weil mir angesichts der breiten Verweigerung hier, Probleme der Laientauglichkeit überhaupt ernsthaft anzusprechen, das Weiterdiskutieren als verlorene Mühe erscheint. Nur noch ein Punkt, auf der Ebene von Haarspalterei & Co, mit der hier argumentiert wurde: Warum eigentlich soll ein Computer ein Problem lösen können, das zu kompliziert ist, um es mit Regeln zu beschreiben, zu dem es aber viele Daten gibt, die als Beispiele für die gewünschte Lösung dienen können.? --Bleckneuhaus (Diskussion) 03:16, 25. Apr. 2024 (CEST)Beantworten
Ich denke, die Haarspalterei ging deinerseits mit der Behauptung los, dass mathematische Modelle nur auf dem Papier existieren, um später zu erklären, dass kein Laie das Wort Modell in dem Sinn versteht, wie es bei ML verwendet wird. Und überhaupt magst du es nicht. Schwamm drüber :-).
Zum letzten Punkt gibt es jetzt eine Abbildung in der Einleitung vom Maschinelles Lernen, zusätzlich empfehle ich den Artikel Überwachtes Lernen. Beide Themen erklärt der Artikel KNN kurz, außerdem enthält er Links darauf (der Text zum Link auf Überwachtes Lernen" heisst im KNN-Artikel Training, was genau genommen schon eine unzulässige Vereinfachung ist, weil es auch andere Arten des Trainings gibt.). Ob du Laien zutraust, über diese Brücke zu gehen, ist deine Entscheidung. Grüße, --Buecherdiebin (Diskussion) 11:03, 25. Apr. 2024 (CEST)Beantworten
"Statistisch" bedeutet laut Duden: "auf Ergebnissen der Statistik beruhend". Ich sehe keinen Widerspruch zwischen dieser Definition und dem Begriff "statistisches Modell". Ein statistisches Modell versucht anhand von einem Sample mit statistischen Methoden Aussagen über die zugrundeliegende Grundmenge zu machen. Vielleicht interpretiert Bleckneuhaus wieder was anderes.--Tensorproduct 06:59, 26. Apr. 2024 (CEST)Beantworten
Hallo @Buecherdiebin, es ist nicht das Problem, dass man weißes Rauschen oder den Zufall nicht mit Regeln beschreiben kann, sonst könnte man ja keine Wahrscheinlichkeitstheorie betreiben. Zum Beispiel hat die brownsche Bewegung fixe Regeln, welche sie eindeutig charakterisiert - zufällig heißt nicht "ohne Regeln". Ob der Computer diese Regeln dann umsetzen kann, ist eine andere Frage. Der klassische Computer (kein Quanten-Computer) ist eine deterministische Maschine und kann für sich allein nur Pseudozufall generieren. Allerdings kann man echten Zufall mit Hilfe der Entropie erzeugen, zum Beispiel mit Messungen des atmosphärischen Rauschens, des radioaktiven Zerfalls oder sonstigen Gesetzen der Quantenmechanik. Es gibt allerdings tatsächlich Probleme, für deren Lösung es keine Regeln (d. h. einen Algorithmus) gibt. Die heißen in der Mathematik unentscheidbar. Die wohl bekanntesten sind das von Alonzo Church gelöste en:Entscheidungsproblem und das von Alan Turing gelöste Halteproblem. Alle diese Dinge haben im Kern mit dem Gödelschen Unvollständigkeitssatz zutun.--Tensorproduct 21:05, 25. Apr. 2024 (CEST)Beantworten
  1. Inga Döbel: Maschinelles Lernen. Fraunhofer-Gesellschaft, September 2018, abgerufen am 22. April 2024.
  2. a b c Larry Hardesty: Explained: Neural networks. MIT News Office, 14. April 2017, abgerufen am 20. Februar 2024 (englisch).
  3. a b Manuela Lenzen: Künstliche Intelligenz. 1. Auflage. C. H. Beck, München 2020, ISBN 978-3-406-75124-0.
  4. Aurélien Géron: Praxiseinstieg Machine Learning. 3. Auflage. dpunkt Verlag, Heidelberg 2023, ISBN 978-3-96009-212-4, S. 343.