Professionell: Neue Trends bei der Chipkühlung

18.03.2004
Durch immer leistungshungrigere Chips und immer kompaktere Bauformen stoßen bisherige Kühlsysteme an ihre Grenzen. Techniken wie die Flüssigkühlung und besser wärmeleitende Materialien bieten einen Ausweg. Von Hermann Stass.

Mit der steigenden Leistungsfähigkeit von Chips steigt auch deren Energiebedarf. Die hohen Taktraten erzeugen mehr Elektronenbewegung je Zeiteinheit - das Ergebnis ist eine höhere Verlustleistung in Form von Wärme. Im Zusammenspiel mit der zunehmend kompakteren Bauweise entsteht damit mehr Wärme je Volumeneinheit.

Neben der Gefahr der dauerhaften Zerstörung sorgen höhere Chiptemperaturen auch für stärkeres thermisches Rauschen auf Grund der höheren Elektronenbeweglichkeit. Dies bringt unerwünschte Signalverfälschungen und damit eine verringerte Betriebssicherheit mit sich. Die Wärmedichten auf den Chipoberflächen liegen heute bei 35 W/cm2. In drei bis vier Jahren rechnet man mit 200 W/cm2. Bei einer solchen Wärmedichte reichen nach heutiger Kenntnis einige hundert Gramm Kupferkühlkörper und ein lautstarker Ventilator nicht mehr aus. Bessere Kühlung ist also eine wesentliche Anforderung an künftige Systeme. Bisher eingesetzte Technologien erreichen in Desktops und Servern zunehmend ihre Grenzen.

Bewegte Elektronen erzeugen mit jeder Signalflanke Wärme durch innere Reibung und Zusammenstöße. Je mehr Gatter im Chip schalten und je höher der Takt, desto höher ist auch die Verlustleistung. Gleichzeitig müssen die Halbleiterhersteller aber die Transistoren in den Chips immer enger packen, um die Signallaufzeiten auf den Interconnects niedrig zu halten. Dies führt zu immer höherer Wärmeabgabe auf einer immer kleineren Fläche.

Wärmeerzeuger

Aber nicht nur dynamische Vorgänge erzeugen Wärme im Chip. Inzwischen überwinden die Elektronen die extrem dünnen Halbleiter-Isolierschichten. Das erzeugt Leckströme, die bis zu zehn Prozent der Chipleistung verbrauchen. Ungenutzte Einheiten in den Chips lassen sich dadurch auch nicht mehr effektiv abschalten. Bei einem Prozessor der Itanium-Klasse entstehen beispielsweise mehr als zehn Watt Verlustleistung durch Leckströme.

Die leistungsfähigsten Chips erzeugen auch die höchsten Wärme-Verlustleistungen. Aktuelle Itanium-Chips produzieren etwa 130 Watt Verlustleistung aus etwa 410 Millionen Transistoren (Pentium 4 etwa 82 Watt aus 60 Millionen Transistoren - beim Northwood-Core mit 3,0 GHz) auf der Fläche einer Briefmarke. IBMs PowerPC-Prozessoren erzeugen aufgrund einer anderen internen Architektur mit weniger Gattern eine vergleichbare Prozessorleistung - und das bei erheblich niedrigeren Taktraten. Damit ist aber das Problem nur zeitlich verschoben, denn bei der stetigen Zunahme der Leistungsanforderungen werden auch PowerPC-Prozessoren in Zukunft höher takten müssen.

Als weiter Wärmequelle sind bei PCs in den letzten Jahren Grafikkarten hinzugekommen. Neueste Grafikchips im PC erzeugen über 50 Watt Verlustleistung. Somit benötigen sie extrem große Kühlkörper aus Kupfer oder Aluminium, ein mehr oder weniger lautstarkes Kühlgebläse und eigene Kühlluftkanäle von beachtlichen Ausmaßen.

Vorteile

Aber nicht nur Desktop-PCs stecken in der Kühlungsklemme, auch in IBM-Mainframes erzeugt die CPU mit etwa 3,2 Milliarden Transistoren (auf einem Multilayer-Chip mit 101 Ebenen) eine entsprechend hohe Verlustleistung, die abgeführt werden will.

Die bisher übliche Verdoppelung der Prozessorleistung alle achtzehn Monate bringt höhere Verlustleistungen auf geringerer Fläche mit sich. Kühlung wird also immer mehr zum wichtigsten Problemthema. Einbausets zur Entwärmung mit Flüssigkeitskühlung gibt es bereits für Desktop-PCs bei den Händlern zu kaufen. Vorläufig wird die Flüssigkeitskühlung bei PCs aber hauptsächlich genutzt, um Prozessorchips höher zu takten als vom Hersteller freigegeben.

Kühlung hat den Vorteil, dass die Produktlebensdauer deutlich erhöht wird. Das wird bei industriellen Anwendungen besonders geschätzt. Eine Reduzierung der Arbeitstemperatur um zehn Grad Celsius erhöht die mittlere Zeit zwischen Fehlern (MTBF) etwa um das Doppelte. Bei niedrigeren Temperaturen können Chips zudem schneller getaktet werden, weil weniger thermisches Rauschen die Signale verfälscht. Die Zuverlässigkeit und die Lebensdauer gekühlter Systeme steigen also sehr und die Gesamtkosten über die Lebensdauer (TOC) sinken deutlich.

Was für rein elektronische Einheiten gilt, trifft auf komplexe elektromechanische Geräte wie Festplatten im Besonderen zu. Wie sich die Ausfallwahrscheinlichkeit einer Festplatte mit der Temperatur verändert, zeigt Hitachi/IBM in der Grafik Temperatureinfluss. Jedes Grad Celsius über der Normtemperatur senkt die Zuverlässigkeit um zwei bis drei Prozent. Nur fünf Grad mehr, und die Ausfallwahrscheinlichkeit steigt bereits um zehn bis fünfzehn Prozent. Senkt man die Betriebstemperatur der Festplatte unter den Normwert, erhöht sich dementsprechend die Zuverlässigkeit.

Platz wird gespart

Neben der Erhöhung der Ausfallsicherheit gehört im Hinblick auf die Kosten der Raumbedarf zu den an Bedeutung erlangenden Faktoren. Mit Flüssigkeitskühlung kann das Schrankvolumen von Server- oder Speicher-Farmen und damit Stellfläche in Gebäuden eingespart werden. Hohe Kosten für Raumkühlung, Luftkanäle, Entfeuchter und Gebläsekompressoren entfallen. Bisher fehlt allerdings ein entsprechend breites und preisgünstiges Angebot an Produkten und Dienstleistungen in diesem Bereich.

Varianten der Entwärmung

Es ist in den meisten Fällen richtiger, von Entwärmung anstatt von Kühlung zu sprechen. In der Regel besteht die Methode in einer Entfernung der durch die Verarbeitung im Chip oder auf der Platine erzeugten Wärme. Bei der Entwärmung wird die im Betrieb entstandene Wärme möglichst schnell von den heißen Chips oder Karten an eine größere Oberfläche weitergeleitet. Die Temperatur sinkt auf Grund der Verteilung der Wärmemenge auf eine größere Fläche oder ein größeres Volumen. Bei der konventionellen Luftkühlung ist dies direkt die Umgebungsluft. Bei der Konvektionskühlung erfolgt zunächst eine Ableitung der Wärme über Metallstrecken oder Wärmeleitrohre (heat pipes) und dann ebenfalls als Abgabe an die Umgebungsluft.

In industriellen Systemen lässt sich die Entwärmung häufig durch die natürliche Luftbewegung von unten noch oben erzielen. Im dabei wird die Luft oft sogar vorgekühlt, um die gewünschte Temperatur am aktiven Bauteil zu erreichen. Im heimischen oder Büro-PC funktioniert die passive Kühlung durch Konvektion nicht ohne weiteres, weil das Mainboard, die Steckkarten und die geschlossene Rückwand rechtwinklig zueinander stehen. Somit entstehen Wärmenester. Deshalb benötigen die heißen Bauteile (Prozessor und Grafikchip) meist zusätzlich aufwendige Kühlkörper und darin direkt eingebaute Ventilatoren.

Der Lüfter ist dabei laut Statistik das Bauteil mit der geringsten Zuverlässigkeit in jedem System. In verschiedenen Anwendungen beispielsweise in der Chemie oder Medizin ist die Verwendung von Lüftern grundsätzlich untersagt. Schmutzablagerungen mit Pilz- und Bakterienbefall oder Explosionsgefahr durch Gase oder Feinststaub sind die Risiken in diesem Anwendungsbereich. Bei industriellen Steckkartensystemen (A-TCA, CPCI, VME) ist auch die

Entwärmung durch Wärmeableitung über eine metallische Oberfläche üblich. Diese Technik ist beispielsweise für "Conduction-Cooled PMC" (ANSI/VITA 20) oder im Normentwurf VITA 30.1 für die "Conduction-Cooled EuroCard" definiert. Beides gilt auch für vergleichbare CPCI-Karten. Dabei nutzt man Metallschienen auf den Platinen oder Metallflächen zwischen den Platinenlagen. Für die gute metallische Berührung mit dem umgebenden Metallchassis zur Wärmeabfuhr sorgen keilförmige Metallzungen, die beim Einstecken die Karten mit dem Metallgehäuse verspannen.

Flüssigkeitskühlung

Mit Flüssigkeiten lassen sich große Wärmemengen sehr viel leichter transportieren als mit Gasen. Eine kühle Flüssigkeit wird bei der Flüssigkühlung daher so nahe wie möglich an die heißen Chips transportiert und die Wärme durch direkte Berührung oder über kurze, wärmeleitende Metall-Federklammern aufgenommen. Oft werden flache Kühlkörper als eine Art Kühlwand zwischen zwei zusammengeschraubten Steckkarten montiert. Mit dieser Technik wird Elektronik in Flugzeugen bereits seit vielen Jahren gekühlt.

Ein weiterer Ansatz ist das Verlegen von Kühlkanälen für Kühlflüssigkeiten im Inneren von mehrlagigen Platinen. Die Zu- und Ableitung der Kühlflüssigkeit erfolgt über tropffreie Ventile an der Steckverbinder-Seite der Platine. An besonders kritischen Stellen ist über ein engeres Verlegen der Kühlschlangen eine individuelle Anpassung möglich.

Der nächste Schritt für diese Technik ist der Einbau der Kühlkanäle im Inneren eines Chips. Im Labor existieren bereits entsprechende Lösungen. Die Kanäle werden in das Substrat eingeätzt oder durch gezielten Schichtaufbau erzeugt, ähnlich wie bei MEMS-Systemen. Die Kühlkanäle sind vorzugsweise in einem geschlossenen System angeordnet. Forschungen dazu gibt es beispielsweise bei HP (HP Labs (http://www.hpl.hp.com/), Thermosyphon) und der Purdue-Universität (http://www.purdue.edu/) in den USA.

Verschiedene Hersteller verkaufen bereits Schrankgestelle mit eingebauter Flüssig-Kühltechnik. Hierbei kommen hohle Kühlkörper auf den CPUs der Steck- oder Blade-Karten zum Einsatz. Lange Zu- und Ablaufschläuche verbinden die Kühlkörper mit dem im Schrank vorhandenen Kühlflüssigkeitskreislauf. Dies erlaubt den zuverlässigen Betrieb eines Hochleistungssystems bei extrem kompakter Bauweise.

Sprühkühlung

Beim Wechsel des Aggregatzustands, beispielsweise von flüssig auf gasförmig, kann besonders viel Wärme aufgenommen und abtransportiert werden. Die Entwärmung mit Kühlflüssigkeit als Wärmetransportmittel, einem Kompressor und Verdampfer ist daher erheblich effektiver als mit bewegter Luft oder mit Metallprofilen.

Ein entsprechendes Verfahren zur Entwärmung ist die Sprühkühlung auf versiegelte Komponenten in einem flüssigkeitsdichten Gehäuse, also mit feinstem Sprühnebel, wie bei Inkjet-Druckern. Sprüht man sehr kleine Flüssigkeitströpfchen direkt auf heiße Chips oder andere Bauteile, dann wird durch die unmittelbare Verdampfung sehr viel Wärme abgeführt.

Die Tröpfchenmenge wird individuell je Chip und je nach aktueller Temperatur so dosiert, dass die Flüssigkeit immer komplett verdampft. Das feuchte Gasgemisch wird abgesaugt. Wird versehentlich mehr gesprüht als sofort verdampfen kann, dann bilden sich Luftbläschen, die isolierend wirken und damit die Verlustwärme nicht ableiten.

Bei den Sprühverfahren müssen die Platinenoberfläche und die Bauteile durch einen Schutzlack gegen Korrosion und gegen feuchtigkeitsbedingte Kurzschlüsse geschützt werden. Bestückte Platinen mit Schutzlack (conformal coating) gibt es schon lange in industriellen Anwendungen. Wird kein Wasser, sondern eine elektrisch nicht leitende Kühlflüssigkeit eingesetzt, dann ist auch die Kurzschlussgefahr nahezu ausgeschlossen. Eine absolut tropffreie Ventil-Steckverbindung gibt es bisher noch nicht. Das ist insbesondere problematisch bei Hotswap-Systemen - also Kartentausch bei laufendem Betrieb - und bei eingeschalteter Stromversorgung. Durch den Druck in den Kühlschläuchen entstehen auch bei selbst schließenden Ventilen immer noch kleinste Tröpfchen. Dies könnte Kontamination oder Kurzschlüsse verursachen.

"Tropffreie" Ventile

Bei modernen Ventilen ist aber die austretende Flüssigkeitsmenge so klein, dass sich kein Tropfen bilden kann. Die Benetzung der Ventiloberfläche ist so gering, dass die Flüssigkeit sofort verdunstet. Die Hersteller bezeichnen solche Ventile deshalb als "tropffrei". Eine Variante der Sprühkühlung kommt beispielsweise beim Supercomputer Cray (http://www.cray.com/) X1 zum Einsatz. Während bei älteren Crays noch 60 Liter Kühlflüssigkeit durch den Rechner plätscherten, übernimmt bei der X1 ein Flüssig-Gas-System mit wenigen Litern Fluorkohlenwasserstoff den Wärmetransport. Das Fluor-Inert wird in einem geschlossenen Kreislauf flüssig auf den Prozessor gespritzt, verdampft dort und wird abgesaugt.

Alternative Ansätze

Für industrielle und militärische Anwendungen gibt es noch eine andere Technik, um mit geringem Aufpreis Platinen kühler und mechanisch stabil zu betreiben. Die Platinen oder Steckkarten werden mit einem Laserscanner dreidimensional abgetastet. Auf Basis der Scandaten erzeugt man vollautomatisch eine zum Original spiegelbildliche, stabile und wärmeleitende Deckplatte. Die Innenseite dieses Deckels ist mit einem flexiblen, wärmeleitenden Schaumstoff in exakter Passform ausgekleidet. Dadurch entsteht ein Gegenstück, das Wärme ableitet und Vibrationen dämpft. Bei mobilen Geräten und industriellen sowie Embedded-Anwendungen ist es ein üblicher Weg, durch die Reduzierung der Chip-Versorgungspannung Energie zu sparen und damit weniger Wärme zu erzeugen. Nachteil dieser Technik ist die bei gleicher Halbleitertechnologie geringere Taktrate und Leistung der E/A-Treiber-Signale. Die in Laptops und Notebooks gebräuchliche Technik, den Prozessor und alle anderen elektronischen Schaltungen bei reduzierten Leistungsanforderungen langsamer zu takten, ist in industrieller Umgebung normalerweise nicht durchführbar, weil die Leistung permanent oder so kurzfristig gebraucht wird, dass das Aufwachen aus einem Sleep-Modus viel zu lange dauert.

Intel arbeitete im Rahmen diverser Industrieinitiativen (SSI-Forum (http://www.ssiforum.org/), Server System Infrastructure) an thermischen Lösungen mit Flüssigkühlung für kommende Rack-Server-Generationen. Aktuelle Xeons benötigen bereits Passivkühler mit 450 g Gewicht. Die geplanten neuen Kühler für Nocona-Chips (webcode: a1118) (Xeon-Nachfolger) mit etwa 900 g Gewicht je Prozessorchip müssen durch das Mainboard hindurch mechanisch am Chassis befestigt werden. Hier könnte Flüssigkeitskühlung eine große Gewichtsersparnis bringen und eine kompaktere Bauweise zulassen. Intel hat sich aber entschieden, weiterhin nur Luftkühlung zu empfehlen.

Risikofaktoren

Die beiden häufigsten Kühltechniken (mit Luft oder Flüssigkeit) bringen jeweils eigene Probleme mit sich. Schnell bewegte Luft transportiert Schmutz, Staub, Feuchtigkeit und Chemikalien auf Bauteile und Kontakte. Der Schmutz bildet eine Isolierschicht, die die Wärme weniger gut ableitet. Chemikalien und Feuchtigkeit wiederum sorgen für Kurzschlüsse. Luftfilter behindern den Luftstrom und blockieren ihn, falls sie nicht regelmäßig gesäubert werden. Jedes Objekt oder jede Krümmung im Luftkanal erzeugt Wirbel und Luftnester. Bei der Entwicklung von industriellen Computersystemen wird schon seit Jahren auf die mechanisch optimale Platzierung der heißen Chips im Luftstrom geachtet. Unkritische Chips kommen in den Windschatten.

Flüssigkeiten in engen Kanälen können durch unvermeidbare Verschmutzungen die Fließgeschwindigkeit verringern oder blockieren. Auch gelöste Dichtungsmassen tragen dazu bei. Korrosion durch eingebrachte Verunreinigungen oder unterschiedliche Metall- und Plastikteile ist gleichfalls problematisch. Tropfdichte Umwälzpumpen und Ventile sind Voraussetzung für einen störungsfreien Betrieb. Kondensation muss vermieden werden. Diese und andere Probleme müssen vor allem bei Selbst-Basteleien berücksichtigt werden. Eine unabhängige Temperaturüberwachung ist unabdingbar.

Wärmeleiter

Wenn die Hitzekonzentration weiter zunimmt (mehr Verlustwärme in kleinerem Volumen), dann muss diese noch schneller als bisher abgeleitet werden. Das geht dann irgendwann nur noch mit Hilfe von Diamanten, weil sie der beste natürliche Wärmeleiter sind.

Viel schwieriger ist es, Diamant nicht nur als Wärmeleiter am Gehäuse, sondern als Basismaterial für Chips (Ersatz für Silizium) einzusetzen.

Diamant-Wafer mit n-Dotierung existieren bereits. Die p-Dotierung ist aber beim heutigen Stand der Technik extrem schwierig herzustellen.

Trotzdem wurden im Labor Diamantchips schon mit Taktraten bis 81 GHz getestet.

Wärmeleitfähigkeit unterschiedlicher Materialien

Material Wärmeleitfähigkeit (W/m-K)

Diamant 2300

Silber 430

Kupfer 386

Gold 310

Aluminium 204

Messing 111

Rostfreier Stahl 13,8

Graphit 5,7

Thermische Paste 0,87

Glas 0,8

Wasser 0,61

Luft 0,026

Neben den hier beschriebenen Kühlmöglichkeiten gibt es noch mehr als ein halbes hundert andere Verfahren, mit oder ohne Kühlflüssigkeit. Dazu gehören herkömmliche thermoelektrische Verfahren (Peltier-Technik), Wärmeleiter (heat pipes) oder Chips, die Kälte produzieren (bis zirka -90 Grad C), wenn sie bei Raumtemperatur einem Magnetfeld ausgesetzt sind. Das erspart Ventilatoren oder Pumpen. Für die Zukunft, in der bessere thermische Lösungen gebraucht werden, sind Standards unabdingbar, damit die Kosten durch Massenfertigung bezahlbar bleiben.

Standards für Kühlung und Entwärmung

Es gibt industrielle (DIN, IEEE, VDE) und militärische (MIL) Standards mit Anforderungen für die zulässigen Betriebstemperatur-Bereiche. Die tatsächliche Ausführung bleibt dem Hersteller überlassen. Die Norm ANSI/VITA 20 und der Normentwurf VITA 30.1 definieren dagegen die exakte Ausführung der Kühltechnik für Wärmeleitung über Metallprofile an Steckkarten und Baugruppenträgern. Im Normentwurf VITA 34 wird zukünftig definiert, an welcher Stelle welche Art von Ventilen für eine optionale Flüssigkeitskühlung angebracht wird.

Es erfolgt gleichfalls die Festlegung des jeweils zulässigen Drucks für die Kühlflüssigkeit und welche Eigenschaften die Kühlflüssigkeiten haben müssen (nicht leitend, nicht korrodierend und so weiter). Der Normentwurf VITA 34 legt auch das kommende mechanische Kartenformat und die elektrische Steckverbindertechnik für serielle Übertragungstechnik im oberen GHz-Bereich fest. Durch die serielle Übertragungstechnik reduzieren sich die elektrische Leistung und damit auch die Wärmeentwicklung erheblich.

Auch Intel zeigt seine Unterstützung

Die Spezifikation AdvancedTCA (A-TCA) der PICMG (http://www.picmg.org/) wurde für die Anforderungen in Telefon- und Datenleitungsvermittlungen entwickelt. Intel unterstützt diesen Standard und bietet entsprechende Produkte an. In den Vermittlungsgebäuden ist üblicherweise vorgekühlte Luft in ausreichender Menge verfügbar. Für diese Anwendung wurde daher auf Flüssigkeitskühlung verzichtet. Die Blades in der Größe 8 HE (8U x 280 mm) sind für Verlustleistungen bis 150 Watt spezifiziert. Einige Itanium-Prozessoren erzeugen aber heute schon etwa 130 Watt Verlustleistung.

So können Dual-Prozessorsysteme auf einer Karte, die für ausfallgesicherte Anwendungen üblicherweise benötigt werden, mit Itanium-Prozessoren nur mit zusätzlicher Entwärmung betrieben werden.

Eine Alternative ist, für eine Steckkarte den doppelten Platz im Einschubchassis frei zu halten. So können übergroße Kühlkörper zum Einsatz kommen, die bei entsprechend starker Luftbewegung die höhere Verlustwärme abführen.

Ausblick

Die beste Strategie ist, unnötige Wärme gar nicht erst zu erzeugen. Für die heute noch üblichen Parallel-Bus-Systeme, wie beispielsweise PCI, werden viele Treiberbausteine oder Gatterfunktionen mit hohem Leistungsverbrauch benötigt. Mit serieller Übertragung ist nur ein Treiberpaar mit Strom sparender LVDS-Technik erforderlich.

Asynchrone Chips (clock-less) erzeugen weniger Verlustwärme, weil immer nur die aktiven Gatter Signale verarbeiten. Sun Microsystems nutzt diese Technik in Teilbereichen von größeren Chips. Asynchrone Chips finden schon bei einigen Herstellern für schnelle Netzwerk-Prozessorchips (10-Gbit/s-Ethernet) Verwendung.

Besonders stark wird derzeit an neuem dielektrischem Material als Ersatz für SiO2 geforscht. Mit höheren K-Werten können die Leckströme vermutlich auf ein Hundertstel der heute üblichen Werte reduziert werden. Bei IBM, Intel und anderen Chipherstellern will man diese Technik und vermutlich anderes Gate-Material spätestens bei der 45-Nanometer-Prozesstechnik ab etwa 2007 einsetzen.

Standardisierte Kühlverfahren und Anschlüsse sparen Zeit und Kosten, wenn für Höchstleistungen besondere Kühlung oder Entwärmung notwendig werden. Für "conduction-cooled"-Steckkarten gibt es die oben erwähnten, weit verbreiteten Standards. Anschlüsse für Flüssigkühlung werden im Normentwurf für VITA 34 definiert.

Besonders wichtig ist das Thermal-Design, also die Berücksichtigung entsprechender Methoden und Produkte schon bei der Entwicklung, nicht erst beim Einbau auf die Platine, das Mainboard oder in das System.

Die Forschung im Bereich Nanotechnik ist für die Zukunft in Sachen kühlere Chips gleichfalls von Bedeutung. Strom fließt in Nanodrähten schneller und mit weniger Widerstand als in Leiterbahnen aus Metall. Weitere - heute noch exotische - Forschungsobjekte mit dem Ziel, die Leckströme zu vermindern, sind vertikale Transistoren und vorgespannte Kristallgitter. Daran arbeiten Forscher in den Laboren von IBM, AMD, TSMC und anderen.

Amerikanische Marktforscher der Business Communications Company in Norwalk erwarteten für das Jahr 2003 einen Umsatz von etwa 3,3 Milliarden US-Dollar. Bei einem durchschnittlichen Jahreswachstum von 12,1 Prozent sollen es im Jahre 2008 dann etwa 5,9 Milliarden US-Dollar sein.

tecCHANNEL-Compact "ITechnologie-Ratgeber 2004"

Tecchannel.de ist die Nummer eins der Online-Fachmedien in Deutschland (IVW 1/04). Auf www.tecChannel.de finden Sie mehr als 1700 Beiträge und über 14.000 News zu allen Themen der IT. Das kostenlose Online-Programm wird ergänzt durch das noch umfangreichere kostenpflichtige tecCHANNEL-Premium und die tecCHANNEL-Compact-Buchreihe.

Im neuen tecCHANNEL-Compact "ITechnologie-Ratgeber 2004" finden professionelle Anwender auf über 220 Seiten Grundlagen, Know-how-, Ratgeber- und Praxisbeiträge.

Insbesondere im Server-, Desktop- und Mobile-Bereich steht ein Generationswechsel bevor. Die Einführung von PCI Express und neuen CPUs, wie Pentium 4 "Prescott" und Pentium M "Centrino", 64-Bit-Computing, sowie der DDR2-Speichertechnologie und Serial Attached SCSI verunsichert die IT-Branche. Die tecCHANNEL-Redaktion beantwortet die Fragen, welche Technologien zukunftssicher sind und die bevorstehenden Investitionen schützen und was beim Umstieg zu beachten ist.

Die Ausgabe ist ab sofort im Handel zu haben oder direkt im Online-Shop unter www.tecChannel.de/shop für 9,90 Euro (gegen Rechnung) inklusive Versandkosten zu bestellen.

Zur Startseite