Rechnerorganisation

Rechnerorganisation

Prinzipien, Strukturen, Algorithmen

Aus der Reihe

Fr. 68.90

inkl. gesetzl. MwSt.
Taschenbuch

Taschenbuch

Fr. 68.90

Rechnerorganisation

Ebenfalls verfügbar als:

Taschenbuch

Taschenbuch

ab Fr. 68.90
eBook

eBook

ab Fr. 53.90

Beschreibung

Details

Einband

Taschenbuch

Erscheinungsdatum

10.03.2003

Verlag

Springer Berlin

Seitenzahl

494

Maße (L/B/H)

23.5/15.5/2.7 cm

Beschreibung

Rezension

 

"Im Zeitalter von Systems-on-Chip, in Software realisierten Hardwarfunktionen und, umgekehrt, festverdrahteten Algorithmen, ist die Trennung zwischen Soft- und Hardware eine eher künstliche. Es gilt also, Rechnersysteme als eine Einheit von Hard- und Software zu begreifen. Von diesem Ansatz aus entwickelt Hans Liebig seine Theorie der Rechnerorganisation, welche als Ziel ein umfassendes Verständnis des Rechnerentwurfs hat. Dieser 'ganzeinheitliche' Entwurf zieht sich durch, von Tuningmaschinen bis hin zu Multiprozessorsystemen. Der Autor baut auf elementaren Rechnerkonzepten auf und vollzieht auf dieser Basis die gesamte Entwicklung nach. Sehr interessant ist die 'HW/SW'-Methode bei stark hardwarelastigen Themen wie der Speicherorganisation, hier zeigt das Buch elegante Lösungen." (Design & Elektronik, Issue 10, 2003)

Details

Einband

Taschenbuch

Erscheinungsdatum

10.03.2003

Verlag

Springer Berlin

Seitenzahl

494

Maße (L/B/H)

23.5/15.5/2.7 cm

Gewicht

744 g

Auflage

3. neubearb. u. erg. Auflage

Sprache

Deutsch

ISBN

978-3-540-00027-3

Weitere Bände von Springer-Lehrbuch

Unsere Kundinnen und Kunden meinen

0.0

0 Bewertungen

Informationen zu Bewertungen

Zur Abgabe einer Bewertung ist eine Anmeldung im Konto notwendig. Die Authentizität der Bewertungen wird von uns nicht überprüft. Wir behalten uns vor, Bewertungstexte, die unseren Richtlinien widersprechen, entsprechend zu kürzen oder zu löschen.

Verfassen Sie die erste Bewertung zu diesem Artikel

Helfen Sie anderen Kund*innen durch Ihre Meinung

Erste Bewertung verfassen

Unsere Kundinnen und Kunden meinen

0.0

0 Bewertungen filtern

Weitere Artikel finden Sie in

  • Rechnerorganisation
  • 1 Grundlagen klassischer Rechnerorganisation.- 1.1 Information, Algorithmen, Automaten.- 1.1.1 Materie- und Informationsprozesse.- 1.1.2 Codierung von Information und Algorithmen.- 1.1.3 Programmsteuerung und Datenverarbeitung.- 1.1.4 Automaten.- 1.2 Elementare Maschinen.- 1.2.1 Die Turing-Maschine.- 1.2.2 Die In-/Dekrementier-Maschine (Zählmaschine).- 1.2.3 Dlie Exor-/And-Maschine (Logikmaschine).- 1.2.4 Maschinelle Verarbeitung von Daten.- 1.2.5 Maschinelle Codierung von Programmen.- 1.3 Der klassische v.-Neumann-Rechner.- 1.3.1 Geschichtliche Bedeutung.- 1.3.2 Architektur.- 1.3.3 Mikroalgorithmen für 2-Komplement-Zahlen.- 1.3.4 Die wichtigsten Rechnerbefehle.- 1.3.5 Die wichtigsten Adressierungsarten.- 1.4 Der klassische 2-Phasen-Assembler.- 1.4.1 Geschichtliche Entwicklung.- 1.4.2 Die wichtigsten Assembleranweisungen.- 1.4.3 Die wichtigsten Adressrechnungen.- 1.4.4 Aufbau eines 2-Phasen-Assemblers.- 2 Prinzipien der Rechnerstrukturen.- 2.1 Einteilung von Rechnern nach Befehlsformaten.- 2.1.1 Adressanzahl gegenüber Adresslänge.- 2.1.2 Hardware-Programme.- 2.1.3 n+1-Adress-Architektur.- 2.1.4 n-Adress-Architektur.- 2.1.5 Stack-Architektur.- 2.2 Aufwands-, geschwindigkeits- und durchsatzoptimale Systeme.- 2.2.1 Organisationsformen.- 2.2.2 Seriell- gegenüber Parallelorganisation.- 2.2.3 Fliessbandorganisation.- 2.2.4 Konfliktlösung bei Fliessbandverarbeitung.- 2.3 Mikroprogrammierung und Prozessorstruktur.- 2.3.1 Die Maschine in der Maschine.- 2.3.2 Complex Instruction Set Computer (CISC).- 2.3.3 Reduced Instruction Set Computer (RISC).- 2.3.4 Gegenüberstellung von RISC und CISC.- 2.4 Prägende Architekturen der Mikroprozessortechnik.- 2.4.1 Am2900: Prozessoren aus Prozessorbausteinen.- 2.4.2 M6800: Einer der ersten 8-Bit-Mikroprozessoren.- 2.4.3 LSI-11: Ein früher 16-Bit-Prozessor für den industriellen Einsatz.- 2.4.4 MC68020: Ein 32-Bit-Mikroprozessor auf CISC-Basis.- 2.4.5 SPARC: Ein 32-Bit-Mikroprozessor auf RISC-Basis.- 2.5 Höhere Formen der Parallelverarbeitung (Autor: M. Menge).- 2.5.1 Lösung des Sprungkonflikts in Fliessband-Prozessoren.- 2.5.2 Statische Operationsparallelität.- 2.5.3 Dynamische Operationsparallelität.- 3 Prozessororganisation und Assemblerprogrammierung.- 3.1 Rechnerbefehle, Assembleranweisungen — vom Problem zum Programm.- 3.1.1 Programmiersprachliche Ausdrucksmittel.- 3.1.2 Programmausführung mittels Assembler und Prozessor.- 3.1.3 Assoziativer vs. wahlfreier Datenzugriff.- 3.1.4 Wahlfreier vs. sequentieller Datenzugriff.- 3.2 Adressrechnung und -modifizierung.- 3.2.1 Register- und Speicheradressierung, immediate Adressierung.- 3.2.2 Registerindirekte Adressierung.- 3.2.3 Basisadressierung.- 3.2.4 Speicherindirekte Adressierung.- 3.2.5 Indexadressierung.- 3.2.6 Effektivadress-Bildung.- 3.3 Unterprogramme — Funktionen und Prozeduren.- 3.3.1 Parametertransport in die Register.- 3.3.2 Parametertransport in den Stack.- 3.3.3 Organisationsformen aus der Industrie.- 3.3.4 Geschachtelte und rekursive Unterprogrammaufrufe.- 3.4 Makrobefehle.- 3.4.1 Elementare Makroersetzungstechniken.- 3.4.2 Bedingte und strukturierte Assemblierung.- 3.4.3 Implementierung abstrakter Maschinen.- 3.4.4 Geschachtelte und rekursive Makroersetzungen.- 3.5 Datentypen, -formate und -strukturen sowie entsprechende Architekturaspekte.- 3.5.1 Die Datentypen-Problematik.- 3.5.2 Datentypen, -formate und -strukturen.- 3.5.3 Typische Befehle handelsüblicher Prozessoren.- 3.5.4 Gleitkommabefehle.- 3.5.5 Sprachorientierte Rechnerarchitekturen.- 4 Systembus- und Speicherorganisation.- 4.1 Datenübertragung mit den Systemkomponenten.- 4.1.1 Adressierung prozessorexterner Speicherzellen und Register.- 4.1.2 Abläufe für den Datentransport zwischen Prozessor und Speicher.- 4.1.3 Asynchroner Buszyklus.- 4.1.4 Synchroner Buszyklus.- 4.2 Strukturierung des Adressraums.- 4.2.1 Aufteilung des Adressraums mit Statussignalen.- 4.2.2 Adressraumaufteilung durch Auswertung der Adresssignale.- 4.2.3 Unterschiedliche Datenformate und dynamische Busbreite.- 4.3 Massnahmen zur Beschleunigung von Speicherzugriffen.- 4.3.1 Verschränkte Speicheradressierung.- 4.3.2 Überlappung von Buszyklen.- 4.3.3 Paralleler Zugriff auf Programm-und Datenspeicher.- 4.3.4 Blockbuszyklus.- 4.4 Cache.- 4.4.1 Problematik.- 4.4.2 Cache-Typen.- 4.4.3 Ersetzungsstrategien.- 4.5 Virtueller Speicher.- 4.5.1 Problematik.- 4.5.2 Speicherverwaltung mit Segmenten.- 4.5.3 Speicherverwaltung mit Seiten.- 4.5.4 Speicherverwaltung mit Segmenten und Seiten.- 5 Ein-/Ausgabeorganisation in Einmaster- und Multimaster-/Multiprozessorsystemen.- 5.1 Prozessorinterrupt.- 5.1.1 Grundsätzlicher Ablauf.- 5.1.2 Interruptzyklus.- 5.1.3 Identifizierbarkeit.- 5.1.4 Unterbrechbarkeit.- 5.1.5 Demaskierbarkeit.- 5.2 Ein-/Ausgabe im Einmastersystem.- 5.2.1 Grundsätzlicher Ablauf.- 5.2.2 Testen und Ändern der Synchronisationsinformation.- 5.2.3 Parallele Datenübertragung.- 5.2.4 Asynchron-serielle Datenübertragung (UART).- 5.2.5 Synchron-serielle Datenübertragung (SDLC).- 5.3 Busarbitration.- 5.3.1 Grundsätzlicher Ablauf.- 5.3.2 Arbitration bei einem Master.- 5.3.3 Arbitration bei mehreren Mastern.- 5.3.4 Lokale Busarbitration.- 5.3.5 Globale Busarbitration.- 5.3.6 Numerierbare Priorisierung.- 5.4 Ein-/Ausgabe im Multimaster-/Multiprozessorsystem.- 5.4.1 Grundsätzliche Systemstrukturen.- 5.4.2 Direct Memory Access (DMA).- 5.4.3 Zusammenspiel der Systemkomponenten.- 5.4.4 Peripheriebusse (SCSI).- 5.4.5 Multibuskonfigurationen.