Diskussion:Deep Web

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 10 Monaten von Deranderemark in Abschnitt Größe des Deep Web
Zur Navigation springen Zur Suche springen

HTTPS ist nur das Protokoll zur Übertragung. Wesentlich ist der Passwortschutz, der bei HTTPS nicht zwingend ist -- Nichtich

Hi Nichtich,
Meldung vom Montag, 30.08.2004:
Seekbot testet Suchmaschinen-Tauglichkeit - viele Firmen durchgefallen.
"... Schlußlicht ... Denn die Commerzbank versteckt ihre gesamten Informationen hinter einer sicheren Verbindung, die für fast alle Robots undurchdringlich ist"
http://www.seekport.de/Seekport_untersucht_Websites_auf_ihre_Suchmaschinen_Tauglichkeit.html
http://www.webwork-magazin.net/news/artikel/2443/
https://www.commerzbank.de
Wie könnte das in den Text eingefügt werden? Ich bin ja doch nicht allein an dem Artikel :) --Cherubino
Hallo,
um mal ein kleines Missverständnis aus dem Weg zu räumen: HTTPS ist einfach gesagt nichts anderes als verschlüsseltes HTTP. Mit Passwortschutz hat das nichts zu tun - für HTTPS braucht also niemand ein Passwort. Vielmehr muss sich der Klient - ob Browser oder Crawler - darum kümmern, dass eine verschlüsselte Verbindung zustande kommt, was allgemein völlig unproblematisch ist (die ziemlich bekannten Sicherheitsfragen von Browsern sind nichts anderes, als der Name sagt: Sicherheitsfragen, die nicht notwendig sind.
HTTPS sperrt also keine Crawler aus.
Grüße, --Benji 01:50, 23. Jul 2006 (CEST)


HTTPS ist einfach "Fehlendes Aufwand-Nutzen-Verhältnis". Ich würde "Arten des Deep Web" unterteilen in "Inhalte, die nicht frei zugänglich sind" und "Inhalte, die nicht indexiert werden" - die Trennung von "Datenbanken", "Nicht-textbasierte Daten", "Privates Web" und "Fehlendes Aufwand-Nutzen-Verhältnis" halte ich nicht für so gut. Details zu Datenbanken (jetzt unter "Datenbanken" und "Suchmaschinen vs. Datenbanken") können am Ende gegeben werden. "Recherche im Internet" ist Thema verfehlt und kann in einen Eigenen Artikel, der mit Deep Web und Recherche aufeinander angepasst werden sollt. Aussagen wie "Mehr als 90% der Datenbanken des Deep Web sind frei zugänglich, ohne dass Gebühren anfallen" und "Etwa 50% des Wissens an den gesamten Forschungsergebnissen überhaupt sind indexiert" halte ich für POV. Besser: "X schätzt, dass Y% soundso sind." -- Nichtich 00:40, 15. Nov 2004 (CET)

Hallo JakobVoss,
ich finde die momentane Aufteilung mehr als ausreichend...
Im Übrigen: Erst nachlesen, dann denken. Sicherlich wirst du über HTTPS, nachdem du es beim Onlinebanking deaktiviert hast und feststellst, dass dir einige tausend Euro auf dem Konto fehlen, nicht mehr als fehlender Aufwand-Nutzen-Verhältnis denken ;-)
--Benji 01:50, 23. Jul 2006 (CEST)

Alte Infos

[Quelltext bearbeiten]

"Auch die größten Suchmaschinen haben nur etwa 16% (1999) der Inhalte des Internets indiziert. " sorry, aber diese Informationen sind ja aus der Steinzeit des Internets! --Intercity 10:38, 9. Nov 2005 (CET)

Leider liegen seit der Untersuchung von 1999 keine weiteren Aktualisierungen vor., Die Größe des indexierbaren Web, In: Dirk Lewandowski, Web Information Retrieval, Frankfurt am Main: DGI, 2005 (Informationswissenschaft; 7) -- Cherubino 19:39, 3. Dez 2005 (CET)

Also man geht davon aus dass es weniger sind. 10% höchstens. Ich weiß aber nicht mehr woher ich diese Zahl habe 83.243.119.114 10:15, 17. Dez. 2007 (CET)--Beantworten

mal am rande. den informationen die ich besitze nach zu urteilen ist das "Vidible-net" in welchem sich die normal büerger bewegen (Facebook, youtube tumblr usw. Ca. 4 bis 6% des gesamt netzes. das deep web "verwendet" dem nach zu urteilen knapp 94-96% des existenten foren und websides welche normalerweise nicht zu betreten sind. Sollte man dies doch ohne eine sichere proxy tun kann man eigentlich auch gleich beim BND anrufen und fragen ob sie nicht vorbei kommen wollen (nicht signierter Beitrag von 94.220.185.52 (Diskussion) 23:30, 14. Jan. 2014 (CET))Beantworten

Völliger Schwachsinn. Wieso sollte dann das BND vorbei kommen? Lass diesen Kindergarten ganz bleiben. Wieso sollte das "Deep Web" 94%-96% des Internets ausmachen und aus "Betreten verboten" bestehen? Das ist auch keine "mal am Rande" Bemerkung. Das ist purer Schwachsinn. Ronny Witzgall (Diskussion) 15:45, 6. Feb. 2014 (CET)Beantworten

Abschnitt "Recherche im Internet"

[Quelltext bearbeiten]

Ähm, bin ich blöd, oder weswegen wird mir der Zusammenhang dieses Abschnitts - insbesondere alle bis auf den ersten Unterabschnitt - mit dem Begriff "Deep Web" nicht ganz klar?! Kommt mir vor, als wollte da jemand unbedingt seine Ausarbeitungen zum Thema Internetrecherche unterbringen und hat es dann hier getan. Das Material fühlt sich bei Suchmaschinen teilweise sicherlich wohler. zaoul 20. Dez 2005 (CET)

ich hoffe, dass hier niemand blöd ist, und dass hier niemand unbedingt etwas unterbringen wollte. Siehe Wikiquette, assume good faith... Wenn dann passt das eher zu Recherche, Gruß -- Cherubino 03:25, 21. Dez 2005 (CET)
verschoben nach Recherche -- Cherubino 08:00, 10. Jan 2006 (CET)

Verwirrung im Abschnitt „Eigenschaften“

[Quelltext bearbeiten]

Folgenden Absatz in diesem Abschnitt finde ich verwirrend:

Anhand der Anzahl der Datensätze zeigt sich, dass die Studie die Größe des Deep Web um das zehnfache überschätzt. Allein der Informationsanbieter LexisNexis hat mit 4,6 Milliarden Datensätzen mehr als die Hälfte der Anzahl der Datensätze des Suchmaschinenprimus Google. Das Deep Web ist daher sicher weitaus größer als das Oberflächenweb.

Ich dachte eigentlich, dass LexisNexis ein Informationsanbieter sei, dessen Informationen/Daten hauptsächlich im Deep Web lägen. Den entsprechenden Wikipedia-Artikel verstehe ich auch so. Der oben zitierte Abschnitt allerdings erzeugt meiner Meinung nach zumindest beim ersten Lesen den Eindruck, Google hätte alle Seiten von LexisNexis indiziert und die würden im Google-Index mehr als die Hälfte des Volumens ausmachen. Was ist nun korrekt? Müsste der Satz nicht etwas umformuliert werden???

84.157.234.77 09:42, 20. Aug 2006 (CEST)

Kann es sein, daß die in diesem Abschnitt zitierte Studie nicht eben gut ist? Dort steht, daß einige DeepWeb Sites häufiger verlinkt seien als andere. Das kann m.E. kaum sein, denn die Crawler der Suchmaschinen würden diesen Links folgen und somit wäre anschließend die verlinkte DeepWeb Page eine normale (Surface-) Web Page. (Vorausgesetzt, daß 1. auf diesen Seiten die Crawler mittels der robots.txt gebeten werden, nicht weiter zu indizieren und 2. daß die Crawler dieser Bitte folge leisten.) Und Verlinkungen von einer DeepWeb Page auf eine andere dürften sich kaum zählen lassen. 78.51.146.236 21:12, 10. Mai 2011 (CEST)Beantworten

In einer Untersuchung der University of California, Berkeley aus dem Jahr 2003 wurden folgende Werte als Umfang des Internets ermittelt: Surface Web – 167 Terabyte, Deep Web – 91.850 Terabyte.[2] Die gedruckten Bestände der Library of Congress in Washington, einer der größten Bibliotheken der Welt, umfassen 10 Terabyte.

Diese Angaben sind vermutlich fehlerhaft. http://www.focus.de/digital/multimedia/glasers_modernste_zeiten/alle-daten-des-planeten_aid_145545.html Wenn die Angaben im Focus stimmen, dann gab es bereits 2002 3,4 bis 5,6 Exabytes, also 3,4 bis 5,6 Millionen Terabytes. (nicht signierter Beitrag von Dianolabunas (Diskussion | Beiträge) 13:32, 26. Apr. 2012 (CEST)) Beantworten

Überarbeitung nötig

[Quelltext bearbeiten]

Die Argumentation in diesem Abschnitt ist unlogisch. Zunächst wird die Studie der Firma "BrightPlanet" erwähnt und deren Schätzung, wobei hier (1. Monitum) die absoluten Zahlen fehlen. Danach wird diese Studie ohne Quellenangabe (2. Monitum, also POV-verdächtig) stark relativiert. Am Schluss des Abschnitts wird dann die Studie der University of California zitiert, diesmal mit den absoluten Zahlen; hier müsste aber konsequenterweise auch die Relativzahl (der Abweichungsfaktor) benannt werden (3. Monitum) - und eigentlich müsste diese Studie direkt nach der erstgenannten platziert sein (4. Monitum). Was mich aber zum Schreiben diese Monita bewegte, ist: Wenn man die absoluten Zahlen der kalifornischen Studie nimmt und deren Abweichung ausrechnet, dann kommt man auch auf den Faktor 400-500. Ist diese Studie also auch parteiisch? Oder ist einfach nur der gesamte Argumentationsgang durch hinreichend viele kleine Edits in die Hose gegangen? --Gerbil 14:04, 22. Sep 2006 (CEST)

Mein Monitum an Gerbil: die Benutzung des sehr seltenen bildungssprachlichen Fremdwortes Monitum. Das moniere ich und verwende damit ein deutlich öfter verwendetes und bekannteres Fremdwort. Muss man mit seinem tatsächlichen oder angeblichen Doktorhut so auffällig winken? -- 93.205.249.6 16:04, 24. Jul. 2016 (CEST)Beantworten

addcontents

[Quelltext bearbeiten]

grad gefunden http://www.addcontents.com wohl noch recht neu -- Cherubino 23:24, 8. Jul. 2007 (CEST)Beantworten

http://www.truffels.com im @-web Newsletter [1] -- Cherubino 14:18, 27. Apr. 2008 (CEST)Beantworten
Ist Tot Ronny Witzgall (Diskussion) 15:51, 6. Feb. 2014 (CET)Beantworten

Dark Web Project

[Quelltext bearbeiten]

Wie ist das denn verwendbar? Vgl. Spiegel http://www.spiegel.de/netzwelt/web/0,1518,505255,00.html und University of Arizona http://ai.arizona.edu/research/terror/index.htm -- Gibsonmann 17:02, 23. Okt. 2007 (CEST)Beantworten

Das kennen wir ja nun. Sie haben sich an die großen Verteilzentren in z.B. USA, England und Frankfurt gehangen und einfach den kompletten Datentransfer ausgewertet und werten ihn noch aus. Denn mit dieser Methode kannst du den Mittelfinger heben, weil hier durch das Routing im Internet dir sozusagen die Perlen entgegen springen. Dark Web hin oder her, es ist und bleibt das Internet. Ronny Witzgall (Diskussion) 15:57, 6. Feb. 2014 (CET)Beantworten

Google ist auch im Deep Web

[Quelltext bearbeiten]

Eine Suchmaschine ist ja selbst auch im Deep Web. Der Inhalt einer Suchmaschine ist nicht wieder in einer anderen (oder gar in sich selbst) indiziert. Bei 10 Suchmaschinen ist also das Deep Web mindestens 10 Mal größer als das Visible Web. --Iki 01:07, 13. Jan. 2009 (CET)Beantworten

Ich glaube, du hast die Definition vom Deep Web nicht verstanden. Das Deep Web beinhaltet inhalte, die z.B. geschützt, kostenpflichtig oder sonst wie verborgen sind. --Shaun72 22:28, 13. Jan. 2009 (CET)Beantworten
Aber sind Suchmaschinen nicht Seiten, die erst durch ein Formular ihren Inhalt ausgeben? --The-wiz 18:38, 15. Aug. 2009 (CEST)Beantworten
Ich weiß, extrem alt aber: Google ist im Google-Index selbst enthalten. Man kann zb. "Hannes site:google.com" suchen und es werden ausschließlich Ergebnisse angezeigt, die auf der Domain google.com liegen. Aber natürlich Teile von Google selbst sind zum Glück ein Teil des Deep-Webs. Ich glaube nicht dass du willst dass deine Google-Plus oder Facebook Nachrichten auf einer Suchmaschine landen. -- Philleb 18:21, 8. Nov. 2011 (CET)Beantworten

Wenn ich bei Google 'Google Maps' eingebe, sehe ich ja Google Maps, also auch ein Teil von Google... :D (nicht signierter Beitrag von 2A02:908:B40:2440:1049:5AD5:843B:7723 (Diskussion | Beiträge) 00:51, 11. Okt. 2015 (CEST))Beantworten

Indizierung von Flash

[Quelltext bearbeiten]

Google ist mittlerweile in der Lage, Flash zu indizieren. Flash-Inhalte sollten deshalb nicht mehr zum Truly Invisible Web gezählt werden. Ich habe den Abschnitt entsprechend überarbeitet.--Stefan Hartmann 10:52, 5. Aug. 2011 (CEST)Beantworten

"Dynamisches Web"

[Quelltext bearbeiten]

Was bitte hat dynamisch erzeugter Content mit Formularen zu tun? Der Abschnitt ist sehr an den Haaren herbeigezogen, das hat offenbar jemand geschrieben, der selbst keine Ahnung hat! Dynamische Websites können Formulare enthalten, aber Formulare machen keine dynamische Website aus! Die Existenz eines Formulars macht eine Website nicht zu einer dynamischen Website! Das ist ein gewaltiger Unterschied. Auch statische Websites können Formulare enthalten. Ich würde den Abschnitt lieber neu schreiben, so wie der da steht ist er irreführend. Außerdem können Suchmaschinen heutzutage durchaus dynamische Websites durchsuchen, sicher nicht jede, aber die meisten großen schon. Bitte ändert den Abschnitt! --93.220.27.51 11:49, 19. Sep. 2011 (CEST)Beantworten

Ein großer Teil des Artikels hört sich an, als stamme er aus geocities Zeiten. Ich stimme zu und gehe noch weiter: "statische Webseiten" wie sie in diesem Kontext verwendet werden gibt es heute praktisch nicht mehr. Jede Seite setzt auf eine Form von serverseitige Scriptausgabe bzw. CMS. Metapeter (Diskussion) 16:00, 11. Dez. 2012 (CET)Beantworten
Es hört sich immer noch komisch an. Eine dynamsiche Website ist jede Website die erst erzeugt wird, wenn ein User darauf zugreift. Sei sie in Sprachen wie PHP, JSP oder ASP geschrieben. Diese Webseiten haben aber einen Nachteil. Sie besitzen eine Suchmaschinenunfreundliche URL wie z.B. index.php?mode=search&id=20. Es gibt aber Auswege über SEO Search Engine Optimizing. Dabei werden diese Inhalte entweder über einen Cache als HTML direkt abgelegt oder in Echtzeit als HTML zum Beispiel über den RewriteMod des Apache2 Servers erstellt. So ist der aktuelle Teil der dynamischen Website im Artikel reine Desinformation. Ronny Witzgall (Diskussion) 16:07, 6. Feb. 2014 (CET)Beantworten

Größe des Deep Web

[Quelltext bearbeiten]

Die Daten hier sind lächerlich veraltet, sollte mal jemand ändern. (nicht signierter Beitrag von 46.14.26.137 (Diskussion) 22:57, 2. Feb. 2012 (CET)) Beantworten

Wie schön dass du darauf eingehst, welche Passagen veraltet sind und gleichzeitig Verbesserungsvorschläge einbringst. -- Ishbane 23:30, 2. Feb. 2012 (CET)Beantworten
Habe ich auch gerade gesehen... Focus sagt dass das Intern momentan 10 Exabyte groß ist ([2]). Der Artikel meint, dass das Internet ca. 90 Petabyte groß wäre (2001). Das ist ein Faktor 100!--Svebert (Diskussion) 00:30, 3. Apr. 2013 (CEST)Beantworten
man könnte den Absatz über die Größe insofern anpassen, dass man weg davon geht sie darstellen zu wollen, sondern die Problematik darstellt, dass sie schlecht darstellbar ist. Dazu hab ich folgende Studie gefunden: Lu, J., Li, D. Estimating deep web data source size by capture–recapture method. Inf Retrieval 13, 70–95 (2010). https://doi.org/10.1007/s10791-009-9107-y --Deranderemark (Diskussion) 18:11, 5. Feb. 2024 (CET)Beantworten

Paedophilie und weitere illegale Inhalte

[Quelltext bearbeiten]

Hallo, ich finde man sollte reinschreiben das grosse Teile des deep webs auch fuer den Austausch von Kinderpornographie und anderer illegaler Abarten genutzt wird, sowie auch einen eigenen Schwarzmarkt enthaelt bei dem illegale Drogen gehandelt werden. Vorallem gilt das fuer das sogenannte tor-netzwerk. Gruss--Lexikon-Duff 16:05, 11. Feb. 2012 (CET)Beantworten

Aber sicher, wenn du dafür gute Belege hast. -- Ishbane 16:40, 11. Feb. 2012 (CET) hidBeantworten

Ein Blick in die englische Wiki zu begriffen wie "hidden wiki" oder "silk road" duerfte langen. Mal gucken...Gruss--Lexikon-Duff 18:23, 11. Feb. 2012 (CET)Beantworten
Anscheinend hast Du eine falsche Vorstellung vom 'Deep Web'. Wie in der Einleitung beschrieben, umfasst der Begriff im Prinzip alle statischen Informationsangebote in der weltweiten elektronischen Vernetzung, die nicht von Suchmaschinen indiziert werden. Also etwa nicht weiter verfolgte öffentliche Websites, firmeninterne oder private Daten sowie Informationsstrukturen auf welche Suchmaschinen für das Surface Web nicht ausgelegt sind. Das betrifft jeweils nicht den spontanen Kommunikationsprozess, wohl jedoch auch Nachrichtenverläufe.
Für eine Enzyklpädie ungeeignete Bewertungen, wie 'große Teile' sind allenfalls absolut, jedenfalls nicht relativ zu erachten. Soll heißen, moralisch ist der Anteil unseriöser Inhalte immer zu groß, aber es ist sicherlich kein überwiegender Prozentsatz, sondern eher nur ein winziger Bruchteil des Deep Webs verwerflich, das ja immerhin rund 450 Mal größer ist, als das Surface Web. (Wenn also nur ein 1/450 des Deep Webs illegal wären, käme das bereits der Größe des öffentlichen Web-Angebots gleich.) Der Begriff Deep Web beschränkt sich nicht hauptsächlich auf Informationen illegaler Communities. Und das Suface Web enthält nicht exklusiv legale Inhalte.
Allgemein wäre ich auch vorsichtlich mit dem Wort legal. Für Deine Beispiele trifft wohl beides zu, dennoch bewerte ich Sachverhalte lieber aus einer ethischen Sicht. Nicht alles Legale ist moralisch und nicht alles Illegale unmoralisch, wie am Beispiel von öffentlichen (Suface Web), moralisch motivierten aber oft illegalen 'Whistle Blower'-Sites abzuwägen. -- 91.141.0.12 23:11, 7. Feb. 2014 (CET)Beantworten

Outsider?

[Quelltext bearbeiten]

Sag mal - kennt ihr eigentlich das Objekt, über das ihr hier schreiben wollt? Schon mal das Hidden Wiki konsultiert oder ein TOR gesehen? Es geht hier NICHT um MySQL-Datenbankbestände, die Google wegen fehlender root-Berechtigungen nicht indizieren kann.

Das Hidden Web ist die Summe aller Inhalte, die Nutzer des sogenannten TOR-Net innerhalb dieses Systems einstellen. Diese bestimmte TOR-Netzwerkarchitektur ist also die Grundlage dafür, dass es ein Hidden Web gibt - so wie man eine Familie haben muss, um bestimmte Aktivitäten (wie telefonieren, Pakete schicken, ... ) mit seinen Familienmitgliedern ausführen zu können. Das TOR-Net ist also ein Zusammenschluss von unzähligen Rechnern, die zusammen etwas ermöglichen. Das Besondere am TOR-Net ist dabei seine weitestreichende Anonymität: Es ist so gut wie unmöglich, den Ursprung eines bestimmten Inhaltes zu ermitteln. Das TOR ist deshalb sehr gut geeignet für Personen, die anonym kommunizieren wollen oder müssen: Firmen, Journalisten, Politiker, Whistleblower. Und ja: auch Kriminelle mögen das TOR-Net.

Dieses TOR ist also eine komplexe - vor allem aber: anonyme! - Struktur, die HINTER dem www liegt. Man braucht eine TOR-Software, um an diesem System teilzunehmen und sich in dieses Netz einzuklinken. Wählt man sich in das TOR ein, kann man zwar auch anonym auf das www zugreifen (das TOR-Net besorgt sich dann die gewünschten Websites über einen sog. Exit-Node im www und transportiert es dann anonym zum Benutzer), aber das www kann nicht direkt auf das Hidden Wiki zugreifen. Und es leuchtet völlig ein, warum das so sein muss: Die Teilnehmer im TOR-Net wechseln ständig. Inhalte sind mal da, mal wieder weg und ändern sich laufend. Feste Server, die klar adressierbar sind, gibt es nicht. Viele User, die sich im TOR zur Verfügung stellen, wissen oft selbst nicht, welche Daten sie gerade beherbergen oder für wen sie Daten tunneln. Das System ist auf Veränderung und Unauffindbarkeit angelegt. Google benötigt aber dauerhafte und wiederauffindbare Inhalte - sonst macht die Indizierung/Katalogisierung keinen Sinn. Ein zentrales Dokument zur Verwaltung ist aber das sog. Hidden Wiki, das manuell gepflegt wird. Hier finde ich oft sehr wertvolle Nachrichten und Meldungen, die in der normalen Presse nicht zu finden sind; dazu gehören auch geleakte Forschungsergebnisse, die aus politischen Gründen nicht publiziert werden sollen. Ein erheblicher Teil unserer Zeitungs-Schlagzeilen kommt inzwischen genau von dort. (nicht signierter Beitrag von 77.6.216.29 (Diskussion) 14:08, 17. Jul. 2012)

Es geht in diesem Artikel nicht um TOR hidden services, sondern eben um alles, was im Web nicht so ohne Weiteres erreichbar ist. Vielleicht fehlt noch was zu den hidden services, aber im Grossen und Ganzen geht es hier nicht um Tor, worauf du es aber gerne reduzieren möchtest. --YMS (Diskussion) 14:19, 17. Jul. 2012 (CEST)Beantworten
Hallo, Outsider! Da das Missverständnis, Deep Web mit Tor oder mit versteckten illegalen Angeboten zu verwechseln, (hier) anscheinend öfters auftritt, möchte ich einmal als Anregung in den (Diskussions)Raum stellen, das bereits in der Einleitung besser zu differenzieren. Werde mir auch etwas dazu überlegen und umsetzen, sofern es kein Veto gibt. Als Insider klassifizieren einen fürs Inhaltsverzeichnis aussagekräftige Absatz-Titel und das Setzen eine Signatur, auf welche am Diskussionsformular explizit hingewiesen wird. Danke -- 91.141.0.12 23:48, 7. Feb. 2014 (CET)Beantworten

Tor und illegales Deep Web

[Quelltext bearbeiten]

Man sollte den Artikel dahingehend erweitern, dass auch andere/zusätzliche Transportmedien berücksichtigt werden (I2P, Freenet, Tor usw.) sowie andere "Gründe", warum Seiten nicht offiziell indiziert werden, z.B. aus politischen Gründen (Dissidenten) oder aus dem Grund, dass die Inhalte illegal sind (z.B. wie bei Silk Road oder Black Market Reloaded). --89.13.54.132 00:09, 20. Okt. 2013 (CEST)Beantworten

Das gehört in den Darknet Artikel. --Fixuture (Diskussion) 02:27, 17. Okt. 2015 (CEST)Beantworten

Darknet

[Quelltext bearbeiten]

Das Darknet beschreibt ein dezentrales diskretes Netzwerk einer meist eng begrenzten Teilnehmergruppe (zb Tor). Da es nicht nur der spontanen Kommunikation dient, sondern auch statische Inhalte allen Teilnehmern angeboten werden können (zB Hidden Wiki), gehört es ggf zum Deep Web nicht Suchmaschinen-erfasster Informationsangebote. -- 91.141.0.12 23:40, 7. Feb. 2014 (CET)Beantworten

Ja, das Darknet bzw. Darknets sind Teil des Deep Webs. Tor hat übrigens keine eng begrenzte Teilnehmergruppe. --Fixuture (Diskussion) 02:27, 17. Okt. 2015 (CEST)Beantworten

Wieso ist der Artikel immer noch nicht überarbeitet?

[Quelltext bearbeiten]

Mich würde bloß interessieren, wieso in dem Artikel immer noch korrekte Angaben fehlen. Man könnte wenigsten schonmal den Abschnitt "Eigenschaften" überarbeiten und die richtigen Zahlen bezüglich der Kapazitäten ändern und auf den Focus-Artikel verweisen >> http://www.focus.de/digital/multimedia/glasers_modernste_zeiten/alle-daten-des-planeten_aid_145545.html

Greez (nicht signierter Beitrag von Karliisback (Diskussion | Beiträge) 16:54, 29. Jun. 2014 (CEST))Beantworten

Das kannst du auch selber machen -- Stingray500 (Diskussion) 08:50, 14. Apr. 2019 (CEST)Beantworten

Desinformation

[Quelltext bearbeiten]

Per Definition dieser Seite ist das Deep Web alles was nicht über Google erreicht werden kann. Impliziert, dass es nur möglich ist über Suchmaschinen Zugang zum Internet bzw. dessen tiefere Bereiche zu finden. Allerdings ist es ohne einen TOR Browser bzw. bestimmer fähiger software, nicht möglich Zugang zum Tor Netzwerk zu bekommen. Folglich ist hier die Zugangsbeschränkung nicht bei google. Davon ab ist google nicht das Internet, sondern lediglich ein, nach meiner Meinung mittlerweile richtig schlechter, Suchanbieter für Webseiten. Mundpropaganda oder das zusenden von interessanten Adressen funktioniert gänzlich ohne google. Wenn dann wäre hier DNS das Wort der Wahl und würde der Aufklärung dienen. Dieses bestreben kann ich jedoch nciht erkennen. Diese Desinformationsblase muss platzen. (nicht signierter Beitrag von 176.198.152.144 (Diskussion) 19:05, 18. Nov. 2014 (CET))Beantworten

>Allerdings ist es ohne einen TOR Browser bzw. bestimmer fähiger software, nicht möglich Zugang zum Tor Netzwerk zu bekommen.
Ja, das wäre dann das Darknet.
>Mundpropaganda oder das zusenden von interessanten Adressen funktioniert gänzlich ohne google.
Ja man kann über Mundpropaganda, Email etc. Links zu Inhalten im Deep Web weitergeben.
>Wenn dann wäre hier DNS das Wort der Wahl
Darum geht es aber nicht.
--Fixuture (Diskussion) 02:27, 17. Okt. 2015 (CEST)Beantworten

Redirect

[Quelltext bearbeiten]

Der Suchbegriff Dark Web leitet auf dieses Lemma weiter, ohne dass der Begriff im Artikeltext erwähnt, geschweige denn erklärt wird. Wie kann man dieses Problem am besten lösen? --Kolya (Diskussion) 12:59, 24. Nov. 2014 (CET)Beantworten

Danke für den Hinweis, leitet jetzt auf Darknet weiter. Das Dark Web ist einfach der Teil des Darknets, der aus Webseiten besteht. Mehr dazu im englischen Artikel: en:Dark Web. --Fixuture (Diskussion) 02:27, 17. Okt. 2015 (CEST)Beantworten

Unnötiger Anglizismus

[Quelltext bearbeiten]

Weiso verwendet man hier man den Anglizismus "Indexierung", obwohl es das schöne deutsche Wort "Indizierung" gibt? --MrBurns (Diskussion) 20:15, 27. Mär. 2015 (CET)Beantworten

Deutsch? Englisch? Ahahahahaha... Indexierung ist Informatiker-Fachsprache und bezeichnet meist etwas anderes als Indizierung (hmm... das WL-Ziel ist sicher auch nur eine Bedeutung). --androl ☖☗ 22:57, 24. Apr. 2016 (CEST)Beantworten
Indizierung heißt genauso wie Indexierung generell "auf einen Index setzen" (egal was für eine Art von Index), ich halte daher auch die Weiterleitung für fragwürdig. Generell halte ich das Wort für Nur ist eben Indexierung ein Anglizismus, Indizierung ist die ursprüngliche Deutsche Form ist Indizierung. --MrBurns (Diskussion) 22:56, 25. Jul. 2016 (CEST)Beantworten
Ich hab mittlerweile die Weiterleitung von Indizierung auf Index geändert. --MrBurns (Diskussion) 23:18, 25. Jul. 2016 (CEST)Beantworten

Größe

[Quelltext bearbeiten]

7500 TB können doch nicht ernst gemeint sein, oder? Sind 3000 handelsübliche Festplatten, eine Palette voll! Da fehlen wohl etliche Nullen...--Antemister (Diskussion) 20:19, 27. Mär. 2015 (CET)Beantworten

ich glaub eher, dass die Zahl zwar korrekt, aber nicht mehr aktuell ist... --MrBurns (Diskussion) 20:21, 27. Mär. 2015 (CET)Beantworten
PS: durch den ebenfalls erwähnten Faktor 40 kommt man auf 187,5 TB fürs Surface Web, da dürfte mittlerweileyoutube schon deutlich mehr haben, eine genaue Zahl weiß man nicht, aber sie schreiben "300 hours of videos are uploaded every minute", selbst wenn man der Einfachheit halber annimmt, dass das seit einem Jahr gilt und davor praktisch keine hochgeladen wurden (mit dieser Annahme unterschätzt man sicher), dann kommt man auf ca. 158 Millionen Stunden oder bei 187,5GB auf <1,2MB/Stunde, was natürlich unrealistsich wenig ist. soviel ich weiß hatte ein youtube-Video schon vor einigen Jahren im Schnitt 2MB pro Minute, also 120 MB pro Stunde, mittlerweile dürfte es wegen den vielen Videos mit HD (teilweise sogar 4k) noch deutlich mehr sein. demnach hat wohl youtube allein schon deutlich mehr als die Zahlen, die ier im Artikel fürs Depp Web stehen... --MrBurns (Diskussion) 20:34, 27. Mär. 2015 (CET)Beantworten
PPS: Ich ab jetzt folgendes am Anfang vom Abschnitt "Eigenschaften" eingefügt:
--MrBurns (Diskussion) 20:38, 27. Mär. 2015 (CET)Beantworten
Ach... das ist von 2001!!! Das ist die halbe Weltgeschichte alt, aus Sicht des Internets.--Antemister (Diskussion) 22:50, 27. Mär. 2015 (CET)Beantworten