Arsitektur von Neumann merupakan
arsitektur komputer yang masih digunakan sampai sekarang dan diciptakan oleh
John von Neumann (1903-1957).
Karakteristik CISC dapat dikatakan bertolak-belakang dengan RISC.
SEJARAH CISC
Karakteristik CISC dapat dikatakan bertolak-belakang dengan RISC.
SEJARAH CISC
Complex instruction-set computing atau Complex Instruction-Set Computer (CISC;
"Kumpulan instruksi komputasi kompleks") merupakan sebuah arsitektur
dari set instruksi komputer dimana setiap instruksi akan menjalankan beberapa
operasi tingkat rendah, seperti pengambilan dari memori, operasi aritmatika,
dan penyimpanan ke dalam memory, semuanya sekaligus hanya di dalam sebuah
instruksi.
Contoh-contoh prosesor CISC adalah System/360, VAX, PDP-11, varian Motorola 68000 , dan CPU AMD dan Intel x86.
Sebelum proses RISC didesain untuk pertama kalinya, banyak arsitek komputer mencoba menjembatani celah semantik", yaitu bagaimana cara untuk membuat set-set instruksi untuk mempermudah pemrograman level tinggi dengan menyediakan instruksi "level tinggi" seperti pemanggilan procedure, proses pengulangan dan mode-mode pengalamatan kompleks sehingga struktur data dan akses array dapat dikombinasikan dengan sebuah instruksi. Karakteristik CISC yg "sarat informasi" ini memberikan keuntungan di mana ukuran program-program yang dihasilkan akan menjadi relatif lebih kecil, dan penggunaan memory akan semakin berkurang. Karena CISC inilah biaya pembuatan komputer pada saat itu (tahun 1960) menjadi jauh lebih hemat.
Memang setelah itu banyak desain yang memberikan hasil yang lebih baik dengan biaya yang lebih rendah, dan juga mengakibatkan pemrograman level tinggi menjadi lebih sederhana, tetapi pada kenyataannya tidaklah selalu demikian. Contohnya, arsitektur kompleks yang didesain dengan kurang baik (yang menggunakan kode-kode mikro untuk mengakses fungsi-fungsi hardware), akan berada pada situasi di mana akan lebih mudah untuk meningkatkan performansi dengan tidak menggunakan instruksi yang kompleks (seperti instruksi pemanggilan procedure), tetapi dengan menggunakan urutan instruksi yang sederhana.
Satu alasan mengenai hal ini adalah karena set-set instruksi level-tinggi, yang sering disandikan (untuk kode-kode yang kompleks), akan menjadi cukup sulit untuk diterjemahkan kembali dan dijalankan secara efektif dengan jumlah transistor yang terbatas. Oleh karena itu arsitektur-arsitektur ini memerlukan penanganan yang lebih terfokus pada desain prosesor. Pada saat itu di mana jumlah transistor cukup terbatas, mengakibatkan semakin sempitnya peluang ditemukannya cara-cara alternatif untuk optimisasi perkembangan prosesor. Oleh karena itulah, pemikiran untuk menggunakan desain RISC muncul pada pertengahan tahun 1970 (Pusat Penelitian Watson IBM 801 - IBMs)
Istilah RISC dan CISC saat ini kurang dikenal, setelah melihat perkembangan lebih lanjut dari desain dan implementasi baik CISC dan CISC. Implementasi CISC paralel untuk pertama kalinya, seperti 486 dari Intel, AMD, Cyrix, dan IBM telah mendukung setiap instruksi yang digunakan oleh prosesor-prosesor sebelumnya, meskipun efisiensi tertingginya hanya saat digunakan pada subset x86 yang sederhana (mirip dengan set instruksi RISC, tetapi tanpa batasan penyimpanan/pengambilan data dari RISC). Prosesor-prosesor modern x86 juga telah menyandikan dan membagi lebih banyak lagi instruksi-instruksi kompleks menjadi beberapa "operasi-mikro" internal yang lebih kecil sehingga dapat instruksi-instruksi tersebut dapat dilakukan secara paralel, sehingga mencapai performansi tinggi pada subset instruksi yang lebih besar.
Arsitektur Von Neumann menggambarkan komputer dengan empat bagian utama yaitu :
1. Memori
Memori menyimpan berbagai bentuk informasi sebagai angka biner. Informasi yang belum berbentuk biner akan dipecahkan (encoded) dengan sejumlah instruksi yang mengubahnya menjadi sebuah angka atau urutan angka-angka.
Contoh-contoh prosesor CISC adalah System/360, VAX, PDP-11, varian Motorola 68000 , dan CPU AMD dan Intel x86.
Sebelum proses RISC didesain untuk pertama kalinya, banyak arsitek komputer mencoba menjembatani celah semantik", yaitu bagaimana cara untuk membuat set-set instruksi untuk mempermudah pemrograman level tinggi dengan menyediakan instruksi "level tinggi" seperti pemanggilan procedure, proses pengulangan dan mode-mode pengalamatan kompleks sehingga struktur data dan akses array dapat dikombinasikan dengan sebuah instruksi. Karakteristik CISC yg "sarat informasi" ini memberikan keuntungan di mana ukuran program-program yang dihasilkan akan menjadi relatif lebih kecil, dan penggunaan memory akan semakin berkurang. Karena CISC inilah biaya pembuatan komputer pada saat itu (tahun 1960) menjadi jauh lebih hemat.
Memang setelah itu banyak desain yang memberikan hasil yang lebih baik dengan biaya yang lebih rendah, dan juga mengakibatkan pemrograman level tinggi menjadi lebih sederhana, tetapi pada kenyataannya tidaklah selalu demikian. Contohnya, arsitektur kompleks yang didesain dengan kurang baik (yang menggunakan kode-kode mikro untuk mengakses fungsi-fungsi hardware), akan berada pada situasi di mana akan lebih mudah untuk meningkatkan performansi dengan tidak menggunakan instruksi yang kompleks (seperti instruksi pemanggilan procedure), tetapi dengan menggunakan urutan instruksi yang sederhana.
Satu alasan mengenai hal ini adalah karena set-set instruksi level-tinggi, yang sering disandikan (untuk kode-kode yang kompleks), akan menjadi cukup sulit untuk diterjemahkan kembali dan dijalankan secara efektif dengan jumlah transistor yang terbatas. Oleh karena itu arsitektur-arsitektur ini memerlukan penanganan yang lebih terfokus pada desain prosesor. Pada saat itu di mana jumlah transistor cukup terbatas, mengakibatkan semakin sempitnya peluang ditemukannya cara-cara alternatif untuk optimisasi perkembangan prosesor. Oleh karena itulah, pemikiran untuk menggunakan desain RISC muncul pada pertengahan tahun 1970 (Pusat Penelitian Watson IBM 801 - IBMs)
Istilah RISC dan CISC saat ini kurang dikenal, setelah melihat perkembangan lebih lanjut dari desain dan implementasi baik CISC dan CISC. Implementasi CISC paralel untuk pertama kalinya, seperti 486 dari Intel, AMD, Cyrix, dan IBM telah mendukung setiap instruksi yang digunakan oleh prosesor-prosesor sebelumnya, meskipun efisiensi tertingginya hanya saat digunakan pada subset x86 yang sederhana (mirip dengan set instruksi RISC, tetapi tanpa batasan penyimpanan/pengambilan data dari RISC). Prosesor-prosesor modern x86 juga telah menyandikan dan membagi lebih banyak lagi instruksi-instruksi kompleks menjadi beberapa "operasi-mikro" internal yang lebih kecil sehingga dapat instruksi-instruksi tersebut dapat dilakukan secara paralel, sehingga mencapai performansi tinggi pada subset instruksi yang lebih besar.
Arsitektur Von Neumann menggambarkan komputer dengan empat bagian utama yaitu :
1. Memori
Memori menyimpan berbagai bentuk informasi sebagai angka biner. Informasi yang belum berbentuk biner akan dipecahkan (encoded) dengan sejumlah instruksi yang mengubahnya menjadi sebuah angka atau urutan angka-angka.
2. PROCESSOR (CPU)
Central Processing Unit atau Unit Pemproses Pusat atau CPU perannya untuk memproses arahan, melaksanakan pengiraan dan menguruskan laluan informasi menerusi system komputer. Unit atau peranti pemprosesan juga akan berkomunikasi dengan peranti input , output dan storan bagi melaksanakan arahan-arahan berkaitan.
------------------------CPU terdiri dari ----------:
a. ARITHMETIC AND LOGIC UNIT (ALU)
ALU berfungsi untuk melakukan operasi hitungan aritmatika dan logika. Tugas utama dari ALU (Arithmetic And Logic Unit)adalah melakukan semua perhitungan aritmatika atau matematika yang terjadi sesuai dengan instruksi program.
Tugas lain dari ALU adalah melakukan keputusan dari operasi logika sesuai dengan instruksi program. Operasi logika (logical operation) meliputi perbandingan dua buah elemen logika dengan menggunakan operator logika, yaitu:
a. ARITHMETIC AND LOGIC UNIT (ALU)
ALU berfungsi untuk melakukan operasi hitungan aritmatika dan logika. Tugas utama dari ALU (Arithmetic And Logic Unit)adalah melakukan semua perhitungan aritmatika atau matematika yang terjadi sesuai dengan instruksi program.
Tugas lain dari ALU adalah melakukan keputusan dari operasi logika sesuai dengan instruksi program. Operasi logika (logical operation) meliputi perbandingan dua buah elemen logika dengan menggunakan operator logika, yaitu:
- sama dengan (=)
- tidak sama dengan (<>)
- kurang dari (<)
- kurang atau sama dengan dari (<=)
- lebih besar dari (>)
- lebih besar atau sama dengan dari (>=)
b.Unit
Kontrol/Control Unit (CU) Unit kontrol
CU mampu mengatur jalannya program. Komponen ini sudah pasti terdapat dalam semua CPU. CPU bertugas mengontrol komputer sehingga terjadi sinkronisasi kerja antarkomponen dalam menjalankan fungsi-fungsi operasinya.tugas dari unit kendali ini adalah:
CU mampu mengatur jalannya program. Komponen ini sudah pasti terdapat dalam semua CPU. CPU bertugas mengontrol komputer sehingga terjadi sinkronisasi kerja antarkomponen dalam menjalankan fungsi-fungsi operasinya.tugas dari unit kendali ini adalah:
- Mengatur dan mengendalikan alat-alat masukan (input) dan keluaran (output).
- Mengambil instruksi-instruksi dari memori utama.
- Mengambil data dari memori utama (jika diperlukan) untuk diproses.
- Mengirim instruksi ke ALU bila ada perhitungan aritmatika atau perbandingan logika serta mengawasi kerja dari ALU.
- Menyimpan hasil proses ke memori utama.
3.
Input device
Fungsi sebagai media
untuk memasukkan data dari luar ke dalam suatu memori dan prosesor untuk diolah
guna menghailkan informasi yang diperlukan. Data yang dimasukkan ke dalam
sistem komputer dapat berbentuk signal input dan maintenance input.
4. Output Device
Fungsi untuk menghasilkan keluaran.
Contohnya: printer, speaker, plotter, monitor, dll. Proses kerjanya ialah
diawali memasukkan data dari perangkat input, lalu data tersebut diolah
sedemikian rupa oleh CPU sesuai yang kita inginkan dan data yang telah diolah
tadi disimpan dalam memori komputer atau disk.
Keuntungan Model Arsitektur Von Neuman
Keuntungan Model Arsitektur Von Neuman
a. fleksibilitas pengalamatan
program dan data.
b. program selalu ada di ROM dan
data selalu ada di RAM.
c. Arsitektur Von Neumann
memungkinkan prosesor untuk menjalankan program yang ada didalam memori data
(RAM).
Kelemahan Model Arsitektur Von
Neumann
a. bus tunggalnya itu
sendiri. Sehingga instruksi untuk mengakses program dan data harus dijalankan
secara sekuensial dan tidak bisa dilakukan overlaping untuk menjalankan
dua isntruksi yang berurutan.
b. bandwidth program
harus sama dengan banwitdh data. Jika memori data adalah 8 bits maka
program juga harus 8 bits.
c. prosesor Von Neumann membutuhkan jumlah clock CPI (Clock per Instruction) yang relatif lebih banyak sehingga eksekusi instruksi dapat menjadi relatif lebih lama.
c. prosesor Von Neumann membutuhkan jumlah clock CPI (Clock per Instruction) yang relatif lebih banyak sehingga eksekusi instruksi dapat menjadi relatif lebih lama.
Cara kerja
1.
Komunikasi Antara Memori dan Unit Pengolahan
Komunikasi antara memori dan
unit pengolahan terdiri dari dua register :
a.
Alamat memori Register (MAR).
b.
Memori data Register (MDR).
Untuk membaca,
a.
The address of the location is put in MAR. Alamat lokasi diletakkan Maret
b.
Memori diaktifkan untuk membaca.
c.
Nilai ini dimasukkan ke dalam MDR oleh memori.
Untuk menulis,
a.
Alamat lokasi diletakkan Maret
b.
Data dimasukkan ke dalam MDR.
c.
Tulis Aktifkan sinyal menegaskan.
d.
Nilai dalam MDR ditulis ke lokasi yang ditentukan.
2.
CPU
a.
Hardware unit seperti ALU , register, memori, dll, yang
dihubungkan bersama ke dalam jalur data-.
b.
Aliran bit sekitar jalur data-dikendalikan oleh "gerbang" yang
memungkinkan bit mengalir atau tidak mengalir (off) melalui jalur data-.
c.
Instruksi biner (1 = on, 0 = off) yang mengontrol aliran yang disebut micro-instruksi.
0 komentar:
Posting Komentar