Wahrheit oder Lüge

Die großen Technik-Mythen

22.07.2014 von Benjamin Schischka
Da im Internet jeder fast alles behaupten kann, weiß man oft nicht, was wahr und was falsch ist. Grund Genug, mit den acht größten Mythen und Legenden der Technik aufzuräumen.

Was ist echte Information und was schlicht und ergreifend erfunden? Bei all den Lügen, Halbwahrheiten und falschen Informationen im Internet ist es teilweise wirklich nicht einfach, Wahrheit von Flunkerei zu unterscheiden.

Da im Internet jeder fast alles behaupten kann, weiß man oft nicht, was wahr und was falsch ist. Wir helfen ein bisschen dabei.
Foto: Gina Sanders - Fotolia.com

Wir haben uns daran gemacht, Ihnen auf den nächsten Seiten acht der berüchtigsten Vorurteile und angeblichen Binsenweisheiten aus dem Netz zu filtern um herauszufinden: Wahrheit oder nur üble Nachrede?

Mythos 1: Der Desktop-PC liegt im Sterben

Sterben Desktop-PCs aus?

Sicher, Laptops sind günstiger und leistungsstärker als jemals zuvor und bedienen mittlerweile so ziemlich alle Computer-Bedürfnisse. Doch zu behaupten, der Desktop-PC wäre vom Aussterben bedroht, ist ungefähr so gewagt wie die Aussage, dass niemand mehr Autos braucht, weil ja jeder die U-Bahn nehmen kann.

Leistungsorientierte Nutzer, die die Power eines Desktop-Rechners in einem Notebook wollen, zahlen immerhin noch horrende Preise dafür. Und wenn der Kunde ein Blu-ray-Laufwerk im Laptop will, eine bessere Grafikkarte oder ein 3D-Display, dann kann man das nicht immer einfach nachrüsten, sondern er muss auf ein anderes Modell umsteigen. Zudem haben Hobby-PC-Bastler mit tragbaren Rechnern deutlich eingeschränktere Möglichkeiten als mit einem Desktop-PC.

Zudem entwickelt sich der Desktop-PC-Sektor immer weiter, um die Bedürfnisse der Käufer zu befriedigen. Nutzer, die einen großen Bildschirm wollen, aber keinen wuchtigen Tower am Schreibtisch stehen haben möchten, können mittlerweile auf All-in-One-Systeme zurückgreifen.

Andere wiederum wollen einen Computer, der sich perfekt in ihr 50-Zoll-HDTV-Heimkino einfügt. Und Studenten, die normalerweise gut von einem Laptop profitieren, kaufen sich einen leistungsstärkeren Heim-PC für Computerspiele, Filme und anspruchsvolle Multimedia-Projekte - und nehmen ein Ultrabook mit in die Vorlesungen.

Mythos 2: Teure HDMI-Kabel lassen das Bild einfach besser aussehen

Liefert nur ein teures HDMI-Kabel entsprechende Bildqualität?

Wenn man knapp 1.000 Euro oder mehr für einen neuen HD-Fernseher und nochmal 250 Euro für einen Blu-ray-Player ausgibt, ist die Behauptung naheliegend, dass nur ein sehr teures HDMI-Kabel die entsprechende Bildqualität liefern kann. Doch ganz ehrlich: ein No-Name-Kabel für 30 Euro macht es auch – denn Ihr neuer HD-TV wird sich einen Kehricht darum kümmern, ob das 30- Euro- oder das 100-Euro-HDMI-Kabel in ihm steckt.

Hochqualitative Kabel waren schon immer eine Hauptverkaufssparte im Audio- und Video-Bereich – aus gutem Grund: da analoge Audio- und Videosignale von einem Gerät zum anderen wandern, sind sie anfällig für Störungen und Unterbrechungen. Soll heißen: das Signal, das einen DVD-Player verlässt, ist nicht zu 100 Prozent das Signal, das am Ende aus dem Fernseher herauskommt, da bestimmte Teile des Signals auf dem Weg zum Audio- oder Videoausgang des TV-Geräts einfach verloren gehen.

Digitale Audio- und Video-Standards wie DisplayPort, DVI und HDMI kennen dieses Problem hingegen nicht, da ihre Signale nicht so sensitiv sind wie analoge. Sie bestehen gänzlich aus Einsen und Nullen - und es müsste schon ein beachtlicher Einsturz bei der Signalspannung entstehen, damit eine Eins am Ende der Leitung plötzlich eine Null ist. Wenn das trotzdem einmal passiert, sieht man in aller Regel ein paar kleine, weiße Sternchen auf dem Bildschirm – doch das passiert höchstens bei Kabellängen von 8 Metern und mehr.

Trotzdem kann diese Tatsache die Heimkino-Enthusiasten und Heimkino-Verkäufer nicht davon abbringen zu behaupten, sie sähen einen Unterschied zwischen billigen und sehr teuren HDMI-Kabeln. Also haben wir die Probe aufs Exempel gemacht, um selbst herauszufinden, ob der Preis tatsächlich die Qualität des Signals beeinflusst. Wir ließen zwei teure HDMI-Kabel gegen zwei günstige Modelle antreten. Fazit: Alle Kandidaten lieferten sich ein Kopf-an-Kopf.

Mythos 3: Windows Vista ist langsamer als Windows 7

Als Windows Vista veröffentlicht wurde, erlangte es binnen kürzester Zeit den Ruf, langsam zu arbeiten und massiv an den Ressourcen des PCs zu zehren. Als dann später Windows 7 herauskam, stieg es hingegen bald zum schnellen, schlanken Betriebssystem auf, das Vista hätte sein sollen. Berechtigt?

Wir haben eine Reihe von Leistungstests bei Laptops und Desktop-PCs mit 32- und 64-Bit-Versionen von Vista und 7 durchgeführt, jeweils kurz nachdem die einzelnen Systeme auf den Markt gekommen waren. Dabei ließen sich einige grundsätzliche Trends feststellen: Windows 7 schaffte zum Beispiel deutlich schnellere Laufwerksoperationen und die Akkulaufzeiten bei Laptops stiegen leicht an.

Während Windows 7 also einige Arbeitsprozesse tatsächlich beschleunigt, zeigten ein paar Tests auch das genaue Gegenteil. Programme starteten deutlich langsamer als unter Vista, ebenso ließ sich eine leichte Verzögerung beim Boot-Prozess feststellen.

Warum wird Windows 7 trotzdem als das bessere Betriebssystem angesehen? Das hängt mit einigen Registry-Optimierungen und kleineren Veränderungen zusammen, die es insgesamt angenehmer in der Bedienung erscheinen lassen – auch wenn die Unterschiede zu Vista gar nicht so gravierend sind.

Die 55 kuriosesten Fehlermeldungen -
Die 55 kuriosesten Fehlermeldungen
Aus dem Spiel "Creatures".
Bug
Was??
Fehler
Klare Anweisung!
Hardware
Aha...
Tastatur
Ist doch ganz einfach, oder?
Fehler 985
Sicher darf an der Echtheit dieser Meldung gezweifelt werden, aber manche werden einen wahren Kern nicht abstreiten wollen.
Keine Bildlaufleiste
Fehler um der Fehler willen?
Festplattenfehler
Unser Tipp: Verwenden Sie nur noch externe Festplatten, das ist bequemer.
???
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
Versteckte Einstellungen
Standardmäßig sind ein Absturz alle zwei Stunden und einer nach je 5000 ungesicherten Bytes aktiviert.
Das Internet herunterladen
Kein Wunder, dass das noch so lange dauert - bei der Transfergeschwindigkeit.
Keine Ahnung?
Geben Sie sich vor Ihrem Computer lieber keine Blöße.
Tastatur nicht gefunden
Klare Anweisung…
Kopieren
Restzeit: 100 Jahre.
Leer
Ohne Worte
Löschen unmöglich
Der Klassiker: Völlig sinnfreie Meldungen.
Nicht genug Speic
Ein Mac-Fehler. Balsam für die Seelen aller Windows-User. Trotzdem: An der Echtheit darf gezweifelt werden.
CD-Rom?
Jetzt hat es auch der letzte begriffen…
Continue?
"Ist doch toll", werden Mac-Fans sagen, "so leicht kann man Probleme beheben."
Zu viele Dateien markiert
Nur langsam, schließlich hat der PC nur eine Dual-Core-CPU und 3 GB RAM.
Neustart
Eine Parodie auf die Neustart-Freudigkeit von Windows.
Minimalistisches Word
Oft kritisiert: Microsofts Word ist zu vollgestopft mit Funktionen. Doch hier gehen die Redmonder doch ein wenig zu weit.
Neustart
Nicht vorhandener Fehler
Genau betrachtet eine gute Nachricht, oder?
Nichtfunktion
Man lernt eben nie aus.
Okay
Okay?
Setup.exe
Klingt irgendwie plausibel.
Standarddrucker
Habe ich zwei baugleiche Drucker angeschlossen?
Toller Tipp
Gut zu wissen.
Unbekannt
Stabiles Betriebssystem von Microsoft? Unbekannt.
Nicht unterstützt
Wo er recht hat…
Virus-Fehler
Toll, wer Windows nutzt ist vor Schädlingen gefeit!?
Vorgang ausgeführt
Ein ausgeführter Vorgang ist natürlich ein Unding!
Warnung
Warnung? Oder leere Drohung?
Windows zurückgeben
Vielleicht wünscht sich manch einer so eine Meldung, aber das ist nur ein Fake.
Word-Fehler
… Fehlermeldung nicht zu Ende führen?
Drucker nicht bereit
Früher ging's ja auch…
Zu lange
Diese Meldung gehört mit Sicherheit ins Reich der Fantasie! … Es sind maximal zwei Stunden!
Webinfo
Microsoft telefoniert nach Hause?
Abgestürzt
Sicher doch, kein Problem!
Null Komma Null
Mathematisch ein bisschen problematisch…
231 Prozent
Wurde das Programm jetzt über zweimal installiert oder was?
Abbrechen
Windows lässt einem die Qual der Wahl.
Anderer Dateiname
Wie jetzt?
Anlöschen oder Echt löschen?
Also ein bisschen "Anlöschen" können wir rückgängig machen, aber "Echt löschen" wohl nicht...
4209535 Tage
Das sind rund 11500 Jahre! So alt ist Antivir schon?
Automatisches Aufhängen
"Soweit kommt es sowieso nicht", werden einige jetzt sagen.
Bier und Pizza…
…passen angeblich gut zusammen. Eine recht dünne Info - Pils oder Weizen? Salami oder Mozzarella?
8388041 MB
Fast 8 Terabyte! Kein Wunder, dass heutige Systeme mit einem solchen Medium nicht zurechtkommen!
14316515 Minuten verbleibend
Das sind noch mehr als 27 Jahre! Interessant wäre auch, in welchem Jahrhundert der Vorgang gestartet wurde.
Zuwenig Speicherplatz
One or more files? Wie wär's mit Windows?
Sprachprobleme
Da fallen mir spontan diverse Übersetzungstools aus dem Internet ein.
Ein Eintrag
Vorbildlich, was hier für die Übersicht alles getan wird.
Erkannt?
Wenigstens wurde das Gerät erkannt… Oder doch nicht?
Error
Alles klar?

Mythos 4: Alle Smartphones verlieren an Signalstärke beim "Todesgriff"

Ist nur das iPhone 4 empfindlich?

Als frühe iPhone-4-Nutzer feststellten, dass das Berühren eines bestimmten Punktes an der Außenhaut des Gerätes zum Einbruch der Signalstärke führt, stellte Apple folgende Behauptung auf: Dies sei ein Problem aller Smartphones, nicht nur des iPhones. Wir haben diese Anschuldigung an fünf anderen Smartphones getestet.

Wir beobachteten Signalstärke, Geschwindigkeit der Datenübertragung und Qualität der Sprachanrufe in Gebieten mit starkem und schwachem Empfang. Und während zwar jedes getestete Gerät in irgendeiner Weise beeinträchtigt wurde, wenn man seine Antenne überdeckte, leidet doch keines so sehr darunter, wie Apples iPhone 4.

Mythos 5: LCDs sind besser als Plasma

Sind LCDs den Plasma-Monitoren vorzuziehen?

Glauben Sie das nicht! Der Hersteller Ihres Vertrauens mag Ihnen zwar einen coolen, neuen LCD-Fernseher andrehen wollen, doch es gibt nach wie vor viele gute Gründe, stattdessen zu einem Plasma-Gerät zu greifen. Plasmafernseher stellen schwarze Bildbereiche noch immer schärfer und intensiver dar, haben einen weiteren Blickwinkel und sind vor allem deutlich günstiger als LCDs – besonders bei großen Bilddiagonalen. Und Panasonic und Samsung bieten noch immer jede Menge Plasma-TVs an, darunter auch eine Reihe von 3D-fähigen Geräten und einem luxuriösen 152-Zoll-3D-TV.

LCDs holen jedoch in einigen Bereichen auf. LCD-TVs mit LED-Hintergrundbeleuchtung und schnelleren Bildraten haben nicht mehr die traditionellen Probleme eines LCDs und verbrauchen zudem deutlich weniger Strom als Plasma-Geräte. Der höhere Anschaffungspreis könnte sich also irgendwann in Ihrer Stromrechnung positiv bemerkbar machen.

Trotz der bisher noch augenscheinlichen Vorteile von Plasma-Bildschirmen ist es erstaunlich zu beobachten, dass sich immer mehr Hersteller aus dem Bereich der Plasma-Produktion zurückziehen – allen voran Pioneer und Vizio. Der US-Bundesstaat Kalifornien plant zudem, stromhungrige TV-Geräte gesetzlich zu verbieten.

Mythos 6: Tintenstrahldrucker sind im Unterhalt wesentlich teurer als Laserdrucker

Wann rentiert sich welcher Druckertyp?

Um herauszufinden, wie viel ein Drucker im Verbrauch wirklich kostet, sollten Sie die Kosten pro gedruckter Seite errechnen. Das funktioniert nach einer einfachen Formel: Nehmen Sie den Preis einer normalen Druckerpatrone oder eines Toners, der für das Gerät geeignet ist, und teilen Sie ihn durch die angegebene Zahl der Seiten, die damit laut Hersteller gedruckt werden können. Bisher war es so, dass Laserdrucker zwar im Anschaffungspreis teurer waren, mit ihren niedrigen Kosten pro gedruckter Seite die weiteren Ausgaben jedoch gering hielten.

Doch seitdem Tintenstrahl-Hersteller immer effizientere Modelle auf den Markt bringen (zum Beispiel Geräte mit Einzeltanks für jede Farbe oder Kartuschen mit mehr Inhalt) haben sich die Kosten pro gedruckter Seite dramatisch verringert. Unternehmen, die zum Beispiel billige, schnelle Drucker benötigen, könnten sowohl auf Tintenstrahldrucker zurückgreifen als auch auf Laserdrucker-Modelle. Privatnutzer und Studenten haben da schon weniger Auswahlmöglichkeiten – hier ist ein billiger Drucker oft gleichbedeutend mit teurerer Tinte.

Tatsache ist, dass Drucker in Kombinationsangeboten, bei denen zum Beispiel ein Drucker kostenlos beim Kauf eines PCs oder Notebooks angeboten wird, meist nicht mit der Schnelligkeit, Ökonomie und Qualität eines Laserdruckers mithalten können. Bei solchen Geräten zahlt man auf lange Sicht höchstwahrscheinlich mehr und bekommt für sein Geld lediglich minderwertige, mit wenig Tinte gefüllte Kartuschen. Bei manchen Geräten zahlen man am Ende sogar weniger, wenn man sich einen neuen Drucker zulegt, als wenn man neue Tintenpatronen für den alten Drucker kauft – verkehrte Welt.

Mythos 7: Mehrere Monitore bedeuten mehr Produktivität

Wie viele Monitore braucht man, um produktiv zu arbeiten?

Arbeitsplätze mit zwei Monitoren gehören heutzutage schon fast zum Standard. Es wird argumentiert, dass ein weiterer Bildschirm die Produktivität um 30 bis 50 Prozent steigert.

Viele Hersteller sahen die Verkäufe ihrer LCD-Bildschirme in die Höhe schnellen. Doch eine Studie fand noch etwas anderes heraus: Die Produktivität mit mehreren Bildschirmen nimmt ebenso schnell wieder ab, wenn eine bestimmte Display-Größe überschritten wird. Mit einem einzelnen Monitor sind bereits 26 Zoll zu groß und mindern die Produktivität des Nutzers; bei zwei Bildschirmen sollte keiner größer als 22 Zoll sein.

Zusätzlich stellte sich heraus, dass ein zweiter Monitor zwar zu verbesserter Leistung führen kann, ein dritter im Bunde das Ergebnis aber wieder ruinierte. Und je nach Testperson war nicht immer die bevorzugte Bildschirm-Zusammenstellung auch die, mit der der Proband am effektivsten arbeitete.

Die besagte Studie fand in kontrollierter Umgebung statt, wo die Probanden die ganze Zeit über nichts weiter taten, als mit Text- und Tabellendokumenten zu arbeiten. Wenn das einer alltäglichen Arbeitssituation eines Ihrer Kunden entspricht, hilft ihm ein zweites Display wahrscheinlich wirklich. Wer den zusätzlichen Bildschirm hingegen für E-Mails, Twitter oder andere, Internet-basierte Arbeiten benutzen will, ist am Ende womöglich deutlich weniger produktiv als mit einem einzigen Monitor.

Mythos 8: Nachgefüllte Druckerpatrone ruinieren den Drucker

Schaden "fremde" Patronen dem Drucker?
Foto:

Da die meisten Kartuschen nicht darauf ausgelegt sind, wiederverwendet zu werden, hält das Nachfüllen aber einige Risiken bereit: Die Tintendüsen könnten zum Beispiel verstopfen oder die Patrone läuft aus. Eine gute Faustregel hierbei ist es, die Patrone beim Druckvorgang ständig im Auge zu behalten, um zur Not direkt eingreifen zu können.

Nachfüll-Betriebe weisen oft und gerne darauf hin, dass es nicht rechtens ist, wenn der Druckerhersteller Garantieansprüche verwehrt, nur weil man Patronen eines Drittanbieters verwendet hat. Schön und gut. Doch wenn eine wiederbefüllte Patrone einen Drucker beschädigt, sollte man eher nicht mit kostenlosen Ersatzansprüchen rechnen. Die Garantiebestimmungen von HP geben beispielsweise deutlich zu erkennen:

"Der Gebrauch einer Dritthersteller-Tintenpatrone oder das Verwenden einer wiederbefüllten Kartusche verletzen nicht die Garantiebestimmungen oder etwaige Service-Verträge zwischen HP und dem Kunden. Wenn das Versagen des Druckers oder der Schaden jedoch eindeutig auf den Gebrauch einer Fremd- oder wiederbefüllten Patrone zurückzuführen ist, wird HP die Kosten für Material und Service dem Kunden in Rechnung stellen."

Wenn Sie oder der Kunde sich also Sorgen um eventuelle Lecks in der Kartusche machen, entfernt man sie von Zeit zu Zeit aus dem Drucker und kontrolliert sie.

Mythos 9: Der Internet Explorer ist unsicherer als andere Browser

Wie unsicher ist der Internet Explorer?

Jeder weiß doch, dass Chrome, Firefox, Opera und Safari alle viel sicherer sind, als Microsofts Internet Explorer – aber ist das wirklich so? Um das herauszufinden, werfen wir zunächst einen Blick in den zwei Mal jährlich erscheinenden Internet Security Threat Report von Symantec, der sämtliche gemeldeten Schwachstellen aller gängigen Browser listet. Demnach hat Firefox die meisten gemeldeten Schwachstellen, gefolgt von Safari, dem Internet Explorer und Google Chrome.

Eine andere Erhebung, vom United States Computer Emergency Readiness Team (US-CERT) – das die National Vulnerability Database führt – ergibt die meisten Schwachstellen bei Safari, dann bei Chrome, dann bei Firefox und dann beim Internet Explorer.

Solche Zahlen allein sind natürlich nicht der beste Weg, die Sicherheit eines Browsers zu messen. Ein Browser mit 100 Sicherheitslücken, die aber direkt nach ihrem Entdecken mittels eines Patches behoben wurden, ist sicherer, als ein Browser mit nur einer Sicherheitslücke, die aber nach wie vor besteht. Nach Angaben von Symantec beträgt das durchschnittliche Zeitfenster zwischen dem Entdecken der Sicherheitslücke und deren Behebung weniger als ein Tag bei Internet Explorer und Firefox, zwei Tage bei Google Chrome und unglaubliche 13 Tage bei Safari. Da muss man zugeben: der Internet Explorer schlägt sich wirklich tapfer.

Mythos 10: Festplatten muss man regelmäßig defragmentieren

Wie oft muss man Festplatten defragmentieren?

Eine Festplatten muss ständig "entscheiden", wohin die Dateien abgelegt werden. Je mehr sich die Festplatte also mit Daten füllt, desto wilder und unübersichtlicher wird die Datenablagerung. Das Ergebnis: die Lese- und Schreibköpfe einer Festplatte brauchen länger, um bestimmte Dateien im Chaos wiederzufinden. So war es jedenfalls früher. Was viele nicht wissen: Dieses Problem ist heutzutage längst Schnee von gestern.

Als Festplatten noch aus nur wenigen hundert Megabytes bestanden, war das Defragmentieren tatsächlich eine gute Sache. Aufgrund des geringen Speicherplatzes waren die meisten Platten oft vollgestopft bis oben hin, die Lese- und Schreibköpfe mussten die gesamte Festplatte nach Dateien absuchen und dankten dem Nutzer deshalb jedes gelöschte File mit etwas mehr Geschwindigkeit.

Heutzutage, mit Festplattengrößen von vielen Gigabyte bis in die Terabyte-Regionen, wird meist nur noch ein geringer Prozentsatz der kompletten Festplatte wirklich gebraucht. Die Lese- und Schreibköpfe tasten nicht mehr die komplette Platte ab und sparen so ohnehin schon Zeit.

Zudem haben auch die neueren Versionen von Windows die Bedeutung der Defragmentierung für bessere PC-Leistung verringert. Techniker, die an der neuen Festplatten-Defragmentierung von Windows 7 gearbeitet haben, sagen, Windows' Dateisystem-Strategien, die Caching- und Prefetch-Algorithmen und die immer weiter wachsende Größe des RAM-Speichers machen eine Defragmentierung quasi unnötig.

Wenn jemand eine SSD-Festplatte besitzt, muss diese sowieso nicht defragmentiert werden. SSD besitzen weder einen Laufwerksteller, noch Lese- und Schreibköpfe, die die Festplatte nach Dateien absuchen müssten. Im Gegenteil kann eine Defragmentierung eines SSD sogar schaden, indem es die Datenzellen der Platte abnützt und somit die Lebenszeit verringert.

30 Jahre Personal Computer -
1983: Debut des Compaq Portable
Nur ein Jahr zuvor gegründet, wagt Compaq den ersten Schritt auf den Markt mit einem neuen PC - das erste, tragbare IBM-kompatible System und damit ein Vorläufer des modernen Mobile Computings. Compaq wurde daraufhin zu einer der größten Firmen in der PC-Industrie - wurde zwei Jahrzehnte später allerdings von HP aufgekauft.
1984: Gründung von PCs Limited
Ein College-Student namens Michael Dell gründet eine kleine Firma in seinem Zimmer im Studentenwohnheim: Dell. Er baut individuell zusammenstellbare PCs. Sein Unterfangen entwickelt ich zu einer der größten Firmen in der Branche und weitet sich auch auf Drucker, Server und Netzwerkgeräte aus.
1985: Windows 1.0 wird veröffentlicht
Erstmals munkelte man schon zwei Jahre zuvor über das mögliche Release einer Software namens Windows. Auch bis ins kommende Jahr hinein schenkt kaum jemand dem Programm Beachtung - niemand ahnt zu diesem Zeitpunkt, dass dieser eher plumpe, grafische Dateimanager sich einmal zu dem größten und weitesten verbreiteten Betriebssystem der Welt entwickeln würde.
1986: Intel bringt den 386er
Der erste 32-bit-Prozessor, der 386er, kann auf scheinbar endlosen Speicher zugreifen - nun, zumindest für die damaligen Verhältnisse fühlte es sich ziemlich endlos an. Der 386er ist das Zugpferd für eine neue Generation von Software, darunter auch überarbeitete Versionen von Windows.
1987: Startschuss für VGA
Video Graphics Array (VGA) kommt zusammen mit IBMs PS/2-Anschluss auf den Markt. VGA überlebt, wird ein neuer Standard und der kleinste gemeinsame Nenner von Windows, Grafikkarte und Monitor. Auch heute noch besitzen die meisten Monitore einen VGA-Anschluss.
1988: EISA taucht auf
Kreiert als Antwort auf IBMs hauseigenes Micro-Channel-Interface, dient EISA in erster Linie dazu, ältere ISA (PC-AT)-Erweiterungskarten zu unterstützen. EISA beschert PC-Bauern einigen Erfolg, bis es von moderneren Standards (wie VESA, PCI und AGP) abgelöst wird.
1989: HTML wird erfunden
Tim Berners-Lee entwickelt die Programmiersprache HyperText Markup Language - kurz HTML. Ein Jahr später benutzt er HTML um den Kern dessen zu bilden, das später das World Wide Web wird.
1990: Windows 3.0 kommt auf den Markt
Windows 3.0 hat sich vom einfachen, grafischen Dateimanager zu der verbreitetsten Art und Weise entwickelt, wie Menschen mit ihrem PC interagieren. Windows 3.0 verfügt über umwerfende 16 MB Speicher. Scharenweise Software-Verkäufer haben das neue Betriebssystem in ihren Händlerregalen stehen.
1991: Geburt des PCI-Anschlusses
Der Peripheral Component Interconnect (kurz PCI), entwickelt von Intel, erleichtert PC-Herstellern und -Nutzern das Leben beachtlich. PCI (der Vorläufer von PCI Express) erlaubt die automatische Konfiguration von Interfacekarten, verbessert die Geschwindigkeit und erweitert die generelle Kompatibilität.
1993: Veröffentlichung des Mosaic-Webbrowsers
Entwickelt am National Center for Supercomputing Applications, ist der Mosaic Webbrowser zwar nicht der erste grafische Browser, wird aber schnell zum beliebtesten. Das macht Mosaic zum Vorreiter aller modernen Webbrowser. Mosaics Leitender Programmierer, Marc Andreessen, gründet später Netscape.
1994: Start von Windows 95
Windows 95 hat sich mittlerweile vom chancenlosen DOS-Konkurrenten zu einem vollständigen Betriebssystem gewandelt. Mit der Veröffentlichung von Windows 95 wird MS-DOS offiziell für tot erklärt. Dank cleverer Programmierung, beherrscht Windows 95 sowohl 32- als auch 16-bit-Anwendungen. Eine der größten Innovationen - die Nutzer am Anfang eher noch verwirrt - ist das Startmenü.
1995: Die ersten bedeutenden 3D-Chips
Die ersten 3D-Beschleuniger, die auch wirklich für PC-Gaming genutzt werden konnten - Rendition Vérité 1000 und 3dfx Voodoo - markieren eine neue Ära von Grafikkarten. Ihre Entwicklung bedrängt die bis dato weit verbreiteten VGA- und "Windows Accelerator"-Karten
1996: USB taucht auf
Im Gegensatz zu Serial- und Parallel-Ports, die gerne mal wählerisch sind, bedeutet USB den Schritt hin zu selbstkonfigurierenden Geräten und macht das Anschließen von Tastaturen, Mäusen und Kameras an den PC zu einem echten Kinderspiel. Zudem entsteht ein komplett neuer Markt für USB-Flash-Speicher.
1997: DVD-Player und -Disks im Handel
DVD-Laufwerke werden Bestandteil vieler PCs, lösen so die ausgedienten CD-Laufwerke ab und werden nahezu überall auf der Welt zum neuen Standard für optische Laufwerke - ein Schritt, den spätere Blu-ray-Laufwerke nicht schaffen.
1998: DMCA wird verabschiedet
In den USA wird der Digital Millennium Copyright Act verabschiedet - ein umstrittenes Gesetz, das unter anderem die Rechte von Copyright-Inhabern stärkt. Es kriminalisiert die Produktion und Verbreitung von Technologien, Geräten und Diensten, die den Kopierschutz eines Produktes knacken - auch, wenn dabei das Copyright selbst gar nicht verletzt wird. In der Europäischen Union wurde im Jahr 2001 mit der Richtlinie 2001/29/EG ein ähnliches Gesetz verabschiedet.
1999: Ratifizierung der 802.11a/b-Standards
Der erste 802.11-Standard für kabellose Netzwerke wird eingeführt - parallel dazu wird die Wi-Fi-Alliance gegründet, um Produkte auf Basis dieses Standards zu zertifizieren und bewerben. Wi-Fi entwickelt sich später zu einer der Netzwerk-Technologien mit der größten Verbreitung und Akzeptanz und ist sowohl bei Firmen, als auch bei Privatnutzern ausgesprochen beliebt.
2000: Electronic Arts veröffentlicht "Die Sims"
Erdacht von Will Wright wird im PC-Spiel "Die Sims" der Alltag virtueller Personen simuliert. Auch, wenn das Gameplay eher steril und ein wenig einschläfernd ist, besteigt "Die Sims" schnell den Thron des meistverkauften Computerspiels aller Zeiten und verschlingt Unmengen an Spielzeit, während die Spieler versuchen, den Alltag ihrer virtuellen Menschen kontinuierlich zu verbessern.
2001: Windows XP kommt
Windows XP vereint Windows 2000 und ME in einem 32-bit-Betriebssystem und wird so zu dem erfolgreichsten OS in der Geschichte von Microsoft.
2002: Debut der Tablet-PCs
Auch, wenn schon vorher Tablets existiert haben, erlangen sie erst 2002 mit Microsofts Windows XP Tablet PC Edition größere Aufmerksamkeit in der Bevölkerung. Zwar schaffen sie es noch nicht, sich auf dem Markt zu etablieren, ganz im Gegenteil sind sie ein ziemlicher Flop. Sie legen aber den Grundstein für die aktuellen Windows-8-Tablets.
2003: AMD bringt die erste 64-bit-x86-CPU
AMD kommt Intel zuvor und bringt als erster Konzern die Athlon-64-CPU auf den Markt, die sowohl 64-bit-Register, als auch 64-bit-Speicher in ihrer Architektur bietet. Microsoft startet daraufhin die Entwicklung einer Windows-Version mit 64-bit-Unterstützung - Intel bringt sein eigenes x86-64-Produkt erst zwei Jahre später auf den Markt.
2004: Verkaufsstart des Intel Pentium M
Entwickelt von Intels Design-Team in Israel, ist die Pentium-M-CPU eine stark modifizierte Version des Pentium 3 mit Fokus auf Leistungseffizienz statt hoher Taktung - und damit ein starker Gegensatz zu Intels Pentium 4. Der M-Prozessor wird zum Vorläufer der Core-Reihe des Herstellers.
2006: Intel bringt Core 2 Duo auf den Markt
Der Chip-Hersteller Intel trägt seine Pentium-4-Architektur mit der neuen Core 2 Duo CPU endgültig zu Grabe. Obwohl der neue Prozessor sogar niedriger getaktet ist als sein Vorgänger, schafft es Core 2 Duo dank effizienterem Befehlsvorrat, seinem Konkurrenten AMD die Leistungskrone wieder zu entreißen. Core 2 Duo braucht deutlich weniger Energie und produziert weniger Abwärme als AMD-Prozessoren.
2007: Premiere des Apple iPhone
Apples iPhone erfindet Smartphones, entwickelt eine unglaubliche Beliebtheit und zwingt Konkurrent Google dazu, selbst Fuß im Bereich mobile Betriebssysteme zu fassen. Auch Microsoft erkennt das Potenzial und bringt später Touch-Funktionen und vereinfachte Nutzersteuerung in seine PC- und mobilen Betriebssysteme ein.
2008: Laptops verkaufen sich besser als Desktops
Mobilität wird in diesem Jahr zum primären Fokus für Computerhersteller - insbesondere, weil die starke Verbreitung von Wi-Fi und die sinkenden Preise immer mehr Menschen dazu bringen, sich einen Laptop zuzulegen. In manchen Haushalten ist der Laptop nun der einzige vorhandene PC.
2010: Apple bringt das iPad
Im Gegensatz zu Microsofts vergeblichen Mühen, interessante Versionen seiner Tablet-PCs an den Mann zu bringen, schafft es Apple, den Markt quasi über Nacht zu dominieren. Der Schlüssel zum Erfolg: Das iPad ist kein PC, der sich wie ein Tablet verhält, sondern ein Tablet durch und durch. Zudem haben Nutzer die Möglichkeit, zwischen zahlreichen Apps für wenig bis gar kein Geld zu wählen - und das Apps-Ökosystem vergrößert sich nach wie vor.
2011: Intel entwickelt Ultrabooks
Angestachelt durch das Versagen der PC-Hersteller, Apples MacBook Air erfolgreich zu kopieren, erdenkt Intel grobe Richtlinien für ultraportable PCs: Die Ultrabook-Standards. Mit einer starken Finanzspritze hilft der Konzern Firmen dabei, die neuen Laptops zu entwerfen und zu bauen. Die Verkäufe von Ultrabooks stellen sich bislang zwar als zweischneidiges Schwert heraus, vom Markt verschwinden werden die ultraflachen und ultraleichten Laptops aber vorerst nicht.
2013: Blutbad im weltweiten PC-Markt
Der PC-Markt hat zum Jahresbeginn den schlimmsten Einbruch seit Beginn der Aufzeichungen von IDC erlebt - schuld daran sei auch das neue Microsoft -Betriebssystem Windows 8.

... und das sind keine Mythen

1.) Das Übertakten eines Prozessors lässt einen Computer nicht explodieren
Übertakten kann im schlimmsten Fall zwar zu extremer Hitzeentwicklung führen, die sich negativ auf die Leistung eines PCs auswirkt und eventuell bestimmte Komponenten verschmort. Doch selbst im allerschlimmsten Fall fährt sich das System eher automatisch herunter, als dass es in die Luft fliegt. Neuere Intel- und AMD-Prozessoren über- und untertakten sich sogar automatisch, je nachdem, wie sehr gerade der PC beansprucht wird.

2.) Ein Handy wird keinen Flugzeugabsturz verursachen
Auch wenn die Bundes-Luftfahrtbehörde noch immer den Gebrauch von Handys in Flugzeugen verbietet, tut sie das nicht, weil man damit die empfindliche Elektronik eines Fliegers durcheinander bringen könnte. Die Gründe dafür sind anderer Natur: Das 2007 eingeführte Gesetz soll verhindern, dass der Handy-Empfang bei Nutzern am Boden einbricht, sobald ein Flieger über einen Funkturm fliegt. Der würde dann nämlich versuchen, das Funksignal nach oben statt nach unten auf den Boden auszurichten, was zu massivem Signalverlust führen würde.

3.) Magneten vernichten eine Festplatten nicht
Magneten waren für 3,5-Zoll-Floppy-Disketten vielleicht noch gefährlich, moderne Festplatten werden von ihnen jedoch nicht mehr beeinflusst. Auch den Flashspeichern und SSDs kann ein Magnet nichts anhaben, da in ihnen absolut nichts Magnetisches steckt, was angezogen werden könnte.

4.) Lassen Sie Ihren Notebook-Akku nicht komplett leer laufen
In älteren Laptop-Modellen war es sinnvoll, den Nickel-Metallhydrid-Akku (NiMH) komplett zu entleeren, da diese Batterien sich nicht immer korrekt an ihren Ladestatus "erinnern" konnten, wenn sie nicht voll aufgeladen waren. Den Lithium-Ionen-Batterien in moderneren Geräten hingegen schadet eine vollständige Entladung sogar, da so die maximale Ladekapazität verringert wird. Man sollte einen Lithium-Ionen-Akku nur dann komplett entladen, wenn die Ladestatus-Anzeige total verrückt spielt. Eine Entladung behebt das Problem manchmal. (tö)



Dieser Beitrag basiert auf einem Beitrag unserer Schwesterpublikation PC-Welt.