Diskussion:Tensor Processing Unit
Formulierung
[Quelltext bearbeiten]"Sie werden u. a. in der Software-Sammlung TensorFlow[2] von Google verwendet" Wie kann ein Hardwarechip in einer Software benutzt werden? Ist vermutlich unglücklich formuliert.--Bomberzocker (Diskussion) 17:26, 27. Jan. 2017 (CET)
Name ist nicht TensorFlow Processing Unit
[Quelltext bearbeiten]Der Name ist Tensor Processing Unit. Ich weiß allerdings nicht wie man den Titel eines Artikels ändert. Siehe zum Beispiel https://arxiv.org/abs/1704.04760 oder hier: https://cloud.google.com/blog/products/gcp/google-supercharges-machine-learning-tasks-with-custom-chip
- Erledigt (gibts unter "Mehr") --Alexander.stohr (Diskussion) 14:28, 19. Mär. 2019 (CET)
Boards zur Programmierung, Evaluierung und Nutzung
[Quelltext bearbeiten]siehe hier - Board mit i.MX8 und viel I/Os - Board nur mit einer TPU und USB-C. --Alexander.stohr (Diskussion) 14:30, 19. Mär. 2019 (CET)
Tensor - was ist das?
[Quelltext bearbeiten]Die Bedeutung von Tensor (Begriffsklärung) sollte in der Einleitung des Artikels mit einem kurzen Satz angerissen werden. --Gunnar (Diskussion) 16:52, 30. Apr. 2020 (CEST)
Geschichte: Was ist jetzt bei TPU neu? In welche Richtung muss man da schauen? Matrix Multiplikation in mehreren Dimensionen führt doch zu ForEach oder flach-machen einiger Dimensionen und dann Aufruf der Kern-Matrix Multiplikationsroutine?
[Quelltext bearbeiten]https://www.lrz.de/wir/newsletter/01-archiv/rundschreiben/1994-10/
SNI-Präsentation SYNAPSE-1 Die Firma Siemens Nixdorf Informationssysteme AG Muenchen stellt die Hardware- und Software-Architektur des Neurocomputers SYNAPSE-1 und seine Anwendungsmoeglichkeiten auf einer Veranstaltung vor:
Die Struktur neuronaler Netze unterscheidet sich stark von der Ar-
chitektur heutiger Computersysteme. Anstelle von sequentieller Ver-
arbeitung durch einen hoch komplexen Prozessor steht die massiv
parallele, adaptive und nicht-lineare Verarbeitung von Signalen durch
relativ einfache Prozessoren (die Neuronen) im Vordergrund. Dieser
Unterschied bewirkt auf konventionellen Rechnern sehr hohe Rechenzei-
ten; insbesondere die aufwendige Simulation des Lernprozesses verhin-
dert die effiziente Entwicklung von neuronalen Anwendungen.
Andererseits gewinnen Anwendungen neuronaler Netze in Bereichen wie z.B. Bilderkennung, Spracherkennung oder Loesung von komplexen Opti- mierungsaufgaben in vielen wissenschaftlichen und technischen Diszi- plinen zunehmend an Bedeutung.
Mit SYNAPSE-1 wurde ein Neurocomputer eingefuehrt, der dieses Dilemma mit Hilfe spezialisierter Hardware loest. Die Leistung dieses Rechners liegt fuer neuronale Anwendungen um mehrere Groessenordnungen ueber der einer Workstation. Der zur Zeit schnellste verfuegbare Neurocompu- ter bietet damit Supercomputer-Leistung zum Preis einer High-End-Work- station. (nicht signierter Beitrag von Arnero (Diskussion | Beiträge) 12:26, 28. Mär. 2022 (CEST))
Quelle der TDP-Werte?
[Quelltext bearbeiten]Woher kommen die Wattzahlen in der Vergleichstabelle?
Mich wundern z.B. die 170 Watt TDP für die TPUv4, während Google selbst (https://cloud.google.com/blog/topics/systems/tpu-v4-enables-performance-energy-and-co2e-efficiency-gains?hl=en) schreibt: "The mean TPU v4 chip power is typically only 200W". --2001:4091:A243:8539:F22F:74FF:FE33:4E5 01:18, 24. Jul. 2024 (CEST)