aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen
Zur Suche springen
Programmierung
Programmierung
|
Administration •
Links •
Vorgehensmodelle •
NuGet •
Transformations •
MSBuild •
Raspberry •
Cheatsheets •
Git •
Mathematica
|
C♯
|
|
F♯
|
|
Python
|
Classes •
Loops •
Anonymous Types •
Lambda Expressions •
Queries (LINQ) •
Iterators (yield)
|
PHP
|
|
T-SQL / SQL Server
|
T-SQL Fundamantals
|
Select •
Programming •
Pitfalls •
Query from Multiple Tables •
Groups and Summaries •
Advanced Select •
Aggregation and Windowing •
Insert, Update, Delete •
Strings •
Date and Time •
Numbers •
Transactions, Locking, Blocking, Deadlock •
Tables •
Views •
Large Tables and Databases •
Indexes •
Stored Procedures •
User-Defined Functions and Types •
Triggers •
Error Handling •
Query Performance and Tuning •
Hints •
Index Tuning and Statistics •
XML •
Files, Filegroups, Integrity •
Backup •
Recovery •
Principals and Users •
Securables, Permissions, Auditing •
Objects and Dependencies
|
SQL Server Performance Tuning
|
Memory Performance Analysis •
Disk Performance Analysis •
CPU Performance Analysis •
Baseline Creation •
Query Performance Metrics •
Query Performance Analysis •
Index Architecture and Behavior •
Index Analysis •
Database Engine Tuning Advisor •
Key Lookups •
Statistics, Data Distributuon, and Cardinality •
Index Fragmentation •
Execution Plan Generation •
Execution Plan Cache Behavior •
Parameter Sniffing •
Query Recompilation •
Query Design Analysis •
Reduce Query Resource Use •
Blocking and Blocked Processes •
Causes and Solutions for Deadlocks •
Row-By-Row Processing •
Memory-Optimized OLTP Tables and Procedures •
Database Performance Testing •
Database Workload Optimization •
SQL Server Optimization Checklist
|
Service Broker
|
Message •
Contract •
Queue •
Service •
.NET Integration •
Route •
Security
|
|
Datatypes •
Unit Testing •
Dependency Injection •
Partitioning •
|
|
.NET
|
|
ASP.NET
|
|
Messaging
|
|
User Interface
|
|
Parallel Programming
|
|
ECMAScript
|
|
SharePoint
|
|
Microsoft CRM
|
Reporting and Dashboards •
SharePoint Integration •
Authentication •
Entity Handling •
Workflows •
Queries
|
Security
|
Forms Authentication •
Membership and Role Provider •
Zertifikate •
OAuth •
OpenID •
Windows Identity Foundation
|
Dateiformate
|
CSV •
Excel •
Word •
PDF •
Email
|
Azure
|
|
Muster
|
|
Powershell
|
|
Android
|
ROM Flashen •
Unit Testing •
Assistant
|
Machine Learning
|
|
Core Server
|
Hyper-V •
Active Directory User Groups •
Active Directory Domain Services •
Active Directory Federation Services •
DHCP •
IIS •
DNS •
RDP •
WSUS •
User Permissions •
IP •
SMB •
DHCP •
IPAM •
Sonstige
|
Bot Framework
|
Rich Messages •
|
Lernmethode
Supervised |
wird vorgegeben und Gewichte angepasst
|
Reinforcement |
Bewertung ob Ausgabe richtig oder falsch; ggf. Fehlerwert
|
Unsupervised |
Ausgabe wird nicht vorgegeben
|
Direct Design |
Gewichte werden manuell vorgegeben
|
Lernzeitpunkt
Incremental (online, adaptive)
|
Netz wird nach jedem Input angepasst
|
Batch (block, cumulated modification, epochal, offline)
|
Netz wird erst nach der Präsentation aller Eingaben angepasst
|
Lernprozesse
Veränderung der Gewichte
|
Erstellen/Beseitigen einer Verbindung
|
Erstellen/Beseitigen eines Neurons
|
Änderung der Propagierungsfunktion
|
Änderung der Aktivierungsfunktion
|
Modifikation des Schwellwerts eines Neurons
|
- Ausgaben zu Lerndatensatz
- Ausgaben zu Testdatensatz (ca. 10% von Lerndaten)
|
Hebb-Regel |
Delta-Regel |
Backpropagation |
Competive Learning
|
Lernverfahren
|
Gleichzeitige Aktivierung
|
• Vergleich ist/soll • Gradientenverfahren
|
• Backward-Pass • Gradientenverfahren
|
the winner takes it all
|
Lernart
|
supervised, unsupervised, oder reinforcement learning
|
supervised
|
supervised
|
unsupervised
|
Verwendung
|
Pattern Associator Auto Associator
|
• einfache Recurrent Networks • Jordan Netze
|
• kompetive Netze • konzeptuell in Kohonnetzen (Auto-Klassifizierer)
|
Vorteile
|
• Einfach • biologisch plausibel
|
• Einfach • einfache Implementierung
|
• mit Hidden-Units einsetzbar • höhere Mächtigkeit als Delta-Regel
|
• Unsupervised learnig • biologisch plausibel
|
Nachteile
|
• überlaufen von Werten • überlaufen von Gewichten • geringe Mächtigkeit
|
• nicht mit Hidden-Units einsetzbar • fragwürdige biologische Plausibilität • geringe Mächtigkeit
|
• fragwürdige biologische Plausibilität • lokale Minima
|
• einzelne Units können alle Inputmuster übernehmen ⇒ keine Kategorisierung
|
„what fires together wires together“
(auch: Least Mean Square Regel, Widrow-Hoff-Regel)
Stellt sicher, dass die Lernveränderung proportional zum tatsächlichen Fehler ist.
- nicht für Netze mit Hidden Layer geeignet, da es sich um einen supervised Lernalgorithmus handelt
- Alternative: Backpropagation
- Wahl eines zufälligen Startpunktes
- Festsetzung eines Lernparameters
- Festlegung des Abbruchkriteriums
- Fixierung der maximalen Differenzveränderung
- Fixierung der maximalen Anzahl an Iterationen
- Schleife
- Berechnung des Gradienten
- Veränderung der Gewichte
- Forward-Propagation mit Delta-Regel
- Fehlerbestimmung
- Fehler wird mit Delta-Regel zurückgegeben
- Output Units
- Input Units und Hidden Units
Hierbei ist
- die Ableitung der Aktivierungsfunktion
- der Layer nach dem Layer
- im Gegensatz zu Backpropagation unsupervised und biologisch plausibel
- Problem: einzelne Inputs könnten alle Patterns repräsentieren; die maximale Stärke der Units muss begrenzt werden.
- Verfahren
- Erregung/Output berechnen
- Wettbewerb
- Entweder: Unit mit dem stärksten Input gewinnt
- Oder: Unit mit stärkstem Input hemmt benachbarte Units
- Gewichstadjustierung
- die Gewichte der Gewinner werden so modifiziert, dass sie eher dem Input gleichen:
|