Sample Text

Sample text

Ads 468x60px

About Me

Followers

Featured Posts

Social Icons

Pages

Pages

Diberdayakan oleh Blogger.

Pages - Menu

Translate

Popular Posts

Social Icons

Cari Artikel Terbaru

Judul Posting Anda Disini

Nama anda atau Author disini

Tulis sebagian postingan anda disini

Judul Posting Anda Disini

Nama anda atau Author disini

Tulis sebagian postingan anda disini

Judul Posting Anda Disini

Nama anda atau Author disini

Tulis sebagian postingan anda disini

Kamis, 20 September 2012

SEJARAH PERKEMBANGAN KOMPUTER

Komputer adalah alat yang dipakai untuk mengolah data menurut perintah yang telah dirumuskan. Kata komputer semula dipergunakan untuk menggambarkan orang yang perkerjaannya melakukan perhitungan aritmatika, dengan atau tanpa alat bantu, tetapi arti kata ini kemudian dipindahkan kepada mesin itu sendiri. Asal mulanya, pengolahan informasi hampir eksklusif berhubungan dengan masalah aritmatika, tetapi komputer modern dipakai untuk banyak tugas yang tidak berhubungan dengan matematika.

Sejarah Komputer menurut periodenya adalah:
- Alat Hitung Tradisional dan Kalkulator Mekanik
- Komputer Generasi Pertama
- Komputer Generasi Kedua
- Komputer Generasi Ketiga
- Komputer Generasi Keempat
- Komputer Generasi Kelima
- Komputer Generasi Keenam (masa depan) Alat Hitung Tradisional dan Kalkulator Mekanik Abacus,yang muncul sekitar 5000 tahun yang lalu di Asia kecil dan masih digunakan di beberapa tempat hingga saat ini dapat dianggap sebagai awal mula mesin komputasi.Alat ini memungkinkan penggunanya untuk melakukan perhitungan menggunakan biji-bijian geser yang diatur pada sebuah rak. Para pedagang di masa itu menggunakan abacus untuk menghitung transaksi perdagangan.Seiring dengan munculnya pensil dan kertas, terutama di Eropa, abacus kehilangan popularitasnya

Setelah hampir 12 abad,muncul penemuan lain dalam hal mesin komputasi.Pada tahun 1642, Blaise Pascal (1623-1662),yang pada waktu itu berumur 18 tahun,menemukan apa yang dia sebut sebagai kalkulator roda numerik (numerical wheel calculator) untuk membantu ayahnya melakukan perhitungan pajak.

Kotak persegi kuningan ini yang dinamakan Pascaline,menggunakan delapan roda putar bergerigi untuk menjumlahkan bilangan hingga delapan digit.Alat ini merupakan alat penghitung bilangan berbasis sepuluh.Kelemahan alat ini adalah hanya terbatas untuk melakukan penjumlahan.

Pada Tahun 1694,seorang matematikawan dan filsuf Jerman,Gottfred Wilhem von Leibniz (1646-1716) memperbaiki Pascaline dengan membuat mesin yang dapat mengalikan.Sama seperti pendahulunya,alat mekanik ini bekerja dengan menggunakan roda-roda gerigi. Dengan mempelajari catatan dan gambar-gambar yang dibuat oleh Pascal, Leibniz dapat menyempurnakan alatnya.

Barulah pada tahun 1820, kalkulator mekanik mulai populer. Charles Xavier Thomas de Colmar menemukan mesin yang dapat melakukan empat fungsi aritmatik dasar. Kalkulator mekanik Colmar, arithometer, mempresentasikan pendekatan yang lebih praktis dalam kalkulasi karena alat tersebut dapat melakukan penjumlahan, pengurangan, perkalian, dan pembagian. Dengan kemampuannya, Arithometer banyak dipergunakan hingga masa Perang Dunia I. Bersama-sama dengan Pascal dan Leibniz, Colmar membantu membangun era komputasi mekanikal.
Awal mula komputer yang sebenarnya dibentuk oleh seorang profesor matematika Inggris,Charles Babbage (1791-1871). Tahun 1812,Babbage memperhatikan kesesuaian alam antara mesin mekanik dan matematika yaitu mesin mekanik sangat baik dalam mengerjakan tugas yang sama berulangkali tanpa kesalahan,sedang matematika membutuhkan repetisi sederhana dari suatu langkah-langkah tertentu.Masalah tersebut kemudain berkembang hingga menempatkan mesin mekanik sebagai alat untuk menjawab kebutuhan mekanik.Usaha Babbage yang pertama untuk menjawab masalah ini muncul pada tahun 1822 ketika ia mengusulkan suatu mesin untuk melakukanperhitungan persamaan differensial.Mesin tersebut dinamakan Mesin Differensial.Dengan menggunakan tenaga uap,mesin tersebut dapat menyimpan program dan dapat melakukan kalkulasi serta mencetak hasilnya secara otomatis.

Setelah bekerja dengan Mesin Differensial selama sepuluh tahun,Babbage tiba-tiba terinspirasi untuk memulai membuat komputer general-purpose yang pertama,yang disebut Analytical Engine. Asisten Babbage, Augusta Ada King (1815-1842) memiliki peran penting dalam pembuatan mesin ini.Ia membantu merevisi rencana,mencari pendanaan dari pemerintah Inggris, dan mengkomunikasikan spesifikasi Analytical Engine kepada publik.Selain itu,pemahaman Augusta yang baik tentang mesin ini memungkinkannya membuat instruksi untuk dimasukkan ke dalam mesin dan juga membuatnya menjadi programmer wanita yang pertama.Pada tahun 1980, Departemen Pertahanan Amerika Serikat menamakan sebuah bahasa pemrograman dengan nama ADA sebagai penghormatan kepadanya.

Mesin uap Babbage,walaupun tidak pernah selesai dikerjakan,tampak sangat primitif apabila dibandingkan dengan standar masa kini.Bagaimanapun juga,alat tersebut menggambarkan elemen dasar dari sebuah komputer modern dan juga mengungkapkan sebuah konsep penting.Terdiri dari sekitar 50.000 komponen,disain dasar dari Analytical Engine menggunakan kartu-kartu perforasi (berlubang-lubang) yang berisi instruksi operasi bagi mesin tersebut.
Pada Tahun 1889,Herman Hollerith (1860-1929) juga menerapkan prinsip kartu perforasi untuk melakukan penghitungan.Tugas pertamanya adalah menemukan cara yang lebih cepat untuk melakukan perhitungan bagi Biro Sensus Amerika Serikat.Sensus sebelumnya yang dilakukan di tahun 1880 membutuhkan waktu tujuh tahun untuk menyelesaikan perhitungan.Dengan berkembangnya populasi,Biro tersebut memperkirakan bahwa dibutuhkan waktu sepuluh tahun untuk menyelesaikan perhitungan sensus.

Hollerith menggunakan kartu perforasi untuk memasukkan data sensus yang kemudian diolah oleh alat tersebut secara mekanik.Sebuah kartu dapat menyimpan hingga 80 variabel.Dengan menggunakan alat tersebut,hasil sensus dapat diselesaikan dalam waktu enam minggu.Selain memiliki keuntungan dalam bidang kecepatan,kartu tersebut berfungsi sebagai media penyimpan data.Tingkat kesalahan perhitungan juga dapat ditekan secara drastis.Hollerith kemudian mengembangkan alat tersebut dan menjualnya ke masyarakat luas.Ia mendirikan Tabulating Machine Company pada tahun 1896 yang kemudian menjadi International Business Machine (1924) setelah mengalami beberapa kali merger.Perusahaan lain seperti Remington Rand and Burroghs juga memproduksi alat pembaca kartu perforasi untuk usaha bisnis.Kartu perforasi digunakan oleh kalangan bisnis dan pemerintahan untuk permrosesan data hingga tahun 1960.



Pada masa berikutnya,beberapa Insinyur membuat penemuan baru lainnya.Vannevar Bush (1890-1974) membuat sebuah kalkulator untuk menyelesaikan persamaan differensial di tahun 1931.Mesin tersebut dapat menyelesaikan persamaan differensial kompleks yang selama ini dianggap rumit oleh kalangan akademisi.Mesin tersebut sangat besar dan berat karena ratusan gerigi dan poros yang dibutuhkan untuk melakukan perhitungan.Pada tahun 1903,John V. Atanasoff dan Clifford Berry mencoba membuat komputer elektrik yang menerapkan aljabar Boolean pada sirkuit elektrik.Pendekatan ini didasarkan pada hasil kerja George Boole (1815-1864) berupa sistem biner aljabar,yang menyatakan bahwa setiap persamaan matematik dapat dinyatakan sebagai benar atau salah.Dengan mengaplikasikan kondisi benar-salah ke dalam sirkuit listrik dalam bentuk terhubung-terputus,Atanasoff dan Berry membuat komputer elektrik pertama di tahun 1940.Namun proyek mereka terhenti karena kehilangan sumber pendanaan.

Komputer Generasi I (1940-1959)

ENIAC

Electronic Numerical Integrator and Calculator (ENIAC) merupakan generasi pertama komputer digital elektronik yang digunakan untuk kebutuhan umum. Pgamroposal ENIAC dirancang oada tahun 1942, dan mulai dibuat pada tahun 1943 oleh Dr. John W. Mauchly dan John Presper Eckert di Moore School of Electrical Engineering (University of Pennsylvania) dan baru selesai pada tahun 1946.


Gambar Komputer Eniac

ENIAC berukuran sangat besar, untuk penempatannya membutuhkan ruang 500m2. ENIAC menggunakan 18.000 tabung hampa udara, 75.000 relay dan saklar, 10.000 kapasitor, dan 70.000 resistor. Ketika dioperasikan, ENIAC membutuhkan daya listrik sebesar 140 kilowatt dengan berat lebih dari 30 ton, dan menempati ruangan 167 m2.

MESIN VON NEUMANN

Mesin ini dikembangkan oleh seorang ahli matamatika yaitu John Von Neumann yang juga merupakan kosultan proyek ENIAC. Mesin ini dikembangkan mulai tahun 1945 yang memberikan gagasan sebagai stored-program concept, yaitu sebuah konsep untuk mempermudah proses program agar dapat direpresentasikan dalam bentuk yang cocok untuk penyimpanan dalam memori untuk semua data. Gagasan ini juga dibuat hampir pada waktu

yang bersamaan dengan Turing. Selanjutnya Von Neumann mempublikasikannya dengan nama baru yaitu: Electronic Discrete Variable Computer (EDVAC).

Semua input dan output dilakukan melalui kartu plong. Dalam waktu satu detik, ENIAC mampu melakukan 5.000 perhitungan dengan 10 digit angka yang bila dilakukan secara manual oleh manusia akan memakan waktu 300 hari, dan ini merupakan operasi tercepat saat itu dibanding semua komputer mekanis lainnya. ENIAC dioperasikan sampai tahun 1955. Teknologi yang digunakan ENIAC adalah menggunakan tabung vakum yang dipakai oleh Laboratorium Riset Peluru Kendali Angkatan Darat (Army’s Ballistics Research Laboratory-LBR) Amerika Serikat.

Selanjutnya mesin ini dikembangkan kembali dengan perbaikan-perbaikan pada tahun 1947, yang disebut sebagai generasi pertama komputer elektronik terprogram modern yang disediakan secara komersial dengan nama EDVAC, EDSAC (Electronic Delay Storage Automatic Calculator), dan UNIVAC1 dan 2 (Universal Automatic Computer) yang dikembangkan oleh Eckert dan Mauchly. Untuk pertama kalinya komputer tersebut menggunakan Random Access Memory (RAM) untuk menyimpan bagian-bagian dari data yang diperlukan secara cepat.

Dengan konsep itulah John Von Neumann dijuluki sebagai bapak komputer modern pertama di dunia yang konsepnya masih digunakan sampai sekarang. John Von Neumann lahir di Budapest, Hongaria 28 Desember 1903 dan meninggal pada tanggal 8 Februari 1957 di Washington DC, AS. Von Neumann sangat cerdas dalam matematika dan angka-angka. Pada usia eman tahun dia sudah dapat menghitung pembagian angka dengan delapan digit tanpa menggunakan kertas atau alat bantu lainnya. Pendidikannya dimulai di University of Budapest pada tahun 1921 di jurusan kimia. Tapi kemudian dia kembali kepada kesukaannya, matematika, dan menyelesaikan doktoralnya di bidang matematika di tahun 1928. di tahun 1930 dia mendapatakan kesempatan pergi ke Princeton University (AS). Pada tahun 1933, Institute of Advanced Studies dibentuk dan dia menjadi salah satu dari enam professor matematika di sana. Von Neumann kemudian menjadi warga negara Amerika.

Von Neumann juga merupakan orang pertama yang mencetuskan istilah “Game Theory” yang kemudian berkembang menjadi ilmu tersendiri. Game theory bermanfaat untuk mensimulasikan permainan, seperti catur, bridge, dan sejenisnya. Dia juga bermanfaat untuk mensimulasikan perang.

KOMPUTER KOMERSIAL PERTAMA

 
                                                              Gambar Komputer Univac

       Pada pertengahan tahun 1950 UNIVAC mengalami kemajuan dalam beberapa aspek pemrograman tingkat lanjut, sehingga merupakan komputer general purpose pertama yang didesain untuk menggunakan angka dan huruf dan menggunakan pita magnetik sebagai media input dan output-nya. Inilah yang dikatakan sebagai kelahiran industri komputer yang didominasi oleh perusahaan IBM dan Sperry. Komputer UNIVAC pertama kali digunakan untuk keperluan kalkulasi sensus di AS pada tahun 1951, dan dioperasikan sampai tahun 1963.

KOMPUTER-KOMPUTER IBM

IBM memproduksi IBM 605 dan IBM 701 pada tahun 1953 yang berorientasi pada aplikasi bisnis dan merupakan komputer paling populer sampai tahun 1959. IBM 705 dikeluarkan untuk menggantikan IBM 701 yang kemudian memantapkan IBM dalam industri pengolahan data.

Komputer Generasi II (1959-1964)

Komputer generasi kedua ditandai dengan ciri-ciri sebagai berikut:

-Menggunakan teknologi sirkuit berupa transistor dan diode untuk menggantikan tabung vakum.
-Sudah menggunakan operasi bahasa pemrograman tingkat tinggi seperti FORTRAN dan COBOL.
-Kapasitas memori utama dikembangkan dari Magnetic Core Storage.
-Menggunakan simpanan luar berupa Magnetic Tape dan Magnetic Disk.
-Kemampuan melakukan proses real time dan real-sharing.
-Ukuran fisiknya sudah lebih kecil dibanding komputer generasi pertama.
-Proses operasi sudah lebih cepat, yaitu jutaan operasi perdetik.
-Kebutuhan daya listrik lebih kecil.
-Orientasi program tidah hanya tertuju pada aplikasi bisnis, tetapi juga aplikasi teknik.

 
                                                                         UNIVAC III

Dibanding denga tabung, teknologi transistor jauh lebih efisien sebagai switch dan dapat diperkecil ke skala mikroskopik. Pada tahun 2001 peniliti Intel telah memperkenalkan silikon paling kecil dan paling cepat di dunia, dengan ukuran 20 nanometer ata sebanding dengan sepermiliar meter, yang akan digunakan pada prosesor dengan kecepatan 20 GHz (Giga Hertz). Era ini juga menandakan permulaan munculnya minikomputer yang merupakan terbesar kedua dalam keluarga komputer. Harganya lebih murah dibanding dengan generasi pertama. Komputer DEC PDP-8 adalah minikomputer pertama yang dibuat tahun 1964 untuk pengolahan data komersial.

Jenis-jenis komputer lain yang muncul pada generasi ini diantaranta UNIVAC III, UNIVAC SS80, SS90, dan 1107, IBM 7070, 7080, 1400, dan 1600.
Komputer Generasi III (1964-1970)

                                                        Komputer Generasi III IBM S/360


Pada generasi ketiga inilah teknologi Integrated Circuit (IC) menjadi ciri utama karena mulai digunakan pada sebuah perangkat komputer hingga generasi sekarang. Komponen IC berbentuk hybrid atau solid (SLT) dan monolithyc (MST). SLT adalah transistor dan diode diletakkan terpisah dalam satu tempat sedangkan MST adalah elemen transistor, diode, dan resistor diletakkan bersama dalam satu chip. MST lebih kesil tetapi mempunyai kemmapuan lebih besar dibanding SLT.

IC dibuat pertama kali oleh Texas Istruments dan Fairchild Semiconductor pada tahun 1959 yang hanya berisi enam transistor. Bisa kita bandingkan bahwa prosesor saat ini yang kita gunakan telah memiliki jutaan, puluhan, ratusan juta transistor, bahkan telah didesain prosesor dengan miliaran transistor. Sebuah perkembangan yang luar biasa dalam masa kurang dari setengah abad.

                                                    Komputer Generasi III UNIVAC 1108

Ciri-ciri komputer generasi ketiga adalah:

-Karena menggunakan IC maka kinerja komputer menjadi lebih cepat dan tepat. Kecepatannya hampir 10.000 kali lebih cepat dari komputer generasi pertama.
-Peningkatan dari sisi software.
-Kapasitas memori lebih besar, dan dapat menyimpan ratusan ribu karakter (sebelumnya hanya puluhan ribu).
-Menggunakan media penyimpanan luar disket magnetik (external disk) yang sifat pengaksesan datanya secara acak (random access) dengan kapasitas besar (jutaan karakter).
-Penggunaan listrik lebih hemat.
-Kemampuan melakukan multiprocessing dan multitasking.
-Telah menggunakan terminal visual display dan dapat mengeluarkan suara.
-Harganya semakin murah.
-Kemampuan melakukan komunikasi dengan komputer lain.

IBM S/360, UNIVAC 1108, UNIVAC 9000, Burroughts 5700, 6700, 7700, NCR Century, GE 600, CDC 3000, 6000, dan 7000, PDP-8, dan PDP-11 (pabrik pembuatnya adalah Digital Equipment Corporation) merupakan contoh-contoh komputer generasi ketiga.
Komputer Generasi IV (1970-1980-an)

Komputer Generasi IV: IBM 370


Komputer generasi keempat merupakan kelanjutan dari generasi III. Bedanya bahwa IC pada generasi IV lebih kompleks dan terintegrasi. Sejak tahun 1970 ada dua perkembangan yang dianggap sebagai komputer generasi IV. Pertama, penggunaan Large Scale Integration (LSI) yang disebut juga dengan nama Bipolar Large Large Scale Integration. LSI merupakan pemadatan beribu-ribu IC yang dijadikan satu dalam sebuah keping IC yang disebut chip. Istilah chip digunakan untuk menunjukkan suatu lempengan persegi empat yang memuat rangkaian terpadu IC. LSI kemudian dikembangkan menjadi Very Large Scale Integration (VLSI) yang dapat menampung puluhan ribu hingga ratusan ribu IC. Selanjutnya dikembangkannya komputer mikro yang menggunakan mikroprosesor dan semikonduktor yang berbentuk chip untuk memori komputer internal sementara generasi sebelumnya menggunakan magnetic core storage.


                                                       Komputer Generasi IV: Apple II

Perusahaan Intel pada tahun 1971 memperkenalkan mikrokomputer 4 bit yang menggunakan chip prosesor dengan nama 4004 yang berisi 230 transistor dan berjalan pada 108 KHz (Kilo-Hertz) dan dapat mengeksekusi 60.000 operasi per detik. Dilanjutkan pada tahun 1972, Intel memperkenalkan mikrokomputer 8008 yang memproses 8 bit informasi pada satu waktu. Selanjutnya mikroprosesor 8080 dibuat pada tahun 1974, dan merupakan prosesor untuk tujuan umum pertama. Sebelumnya prosesor 4004 dan 8008 dirancang untuk kebutuhan aplikasi tertentu, dan prosesor 8080 memiliki kemampuan lebih cepat dan memilki set instruksi yang lebih kaya, serta memiliki kemampuan pengalamatan yang lebih besar. Pada generasi keempat ini tampilan monitor masih satu warna (green color).


                                                        Komputer Generasi IV: PDP 11

Komputer-komputer generasi keempat diantaranya adalah IBM 370, Apple I dan Apple II, PDP-11, VisiCalc, dan Altair yang menggunakan prosesor Intel 8080, dengan sistem operasi CP/M (Control Program for Microprocessor), dengan bahasa pemrograman Microsoft Basic (Beginners Allpurpose Symbolic Instruction Code). Sebagai catatan bahwa pada komputer-komputer generasi keempat ini tidak satupun yang PC-Compatible atau Macintosh-Compatible. Sehingga pada generasi ini belum ditentukan standar sebuah komputer terutama personal computer (PC).

Komputer Generasi V (1980-an-sekarang)


Sumber : http://meycalista.blogspot.com/2011/03/sejarah-perkembangan-komputer-secara.html
Read More : SEJARAH PERKEMBANGAN KOMPUTER

Rabu, 19 September 2012

Pengertian dan Jenis Processor


processorProcessor sering disebut sebagai otak dan pusat pengendali computer yang didukung oleh kompunen lainnya. Processor adalah sebuah IC yang mengontrol keseluruhan jalannya sebuah sistem komputer dan digunakan sebagai pusat atau otak dari komputer yang berfungsi untuk melakukan perhitungan dan menjalankan tugas. Processor terletak pada socket yang telah disediakan oleh motherboard, dan dapat diganti dengan processor yang lain asalkan sesuai dengan socket yang ada pada motherboard. Salah satu yang sangat besar pengaruhnya terhadap kecepatan komputer tergantung dari jenis dan kapasitas processor.
Prosesor adalah chip yang sering disebut “Microprosessor” yang sekarang processor1ukurannya sudah mencapai Gigahertz (GHz). Ukuran tersebut adalah hitungan kecepatan prosesor dalam mengolah data atau informasi. Merk prosesor yang banyak beredar dipasatan adalah AMD, Apple, Cyrix VIA, IBM, IDT, dan Intel. Bagian dari Prosesor Bagian terpenting dari prosesor terbagi 3 yaitu :
Sejarah Perkembangan Mikroprocessor

Dimulai dari sini :
1971 : 4004 Microprocessor
Pada tahun 1971 munculah microprocessor pertama Intel , microprocessor 4004 ini digunakan pada mesin kalkulator Busicom. Dengan penemuan ini maka terbukalah jalan untuk memasukkan kecerdasan buatan pada benda mati.

1972 : 8008 Microprocessor

Pada tahun 1972 munculah microprocessor 8008 yang berkekuatan 2 kali lipat dari pendahulunya yaitu 4004.

1974 : 8080 Microprocessor
Menjadi otak dari sebuah komputer yang bernama Altair, pada saat itu terjual sekitar sepuluh ribu dalam 1 bulan

1978 : 8086-8088 Microprocessor
Sebuah penjualan penting dalam divisi komputer terjadi pada produk untuk komputer pribadi buatan IBM yang memakai prosesor 8088 yang berhasil mendongkrak nama intel.

1982 : 286 Microprocessor
Intel 286 atau yang lebih dikenal dengan nama 80286 adalah sebuah processor yang pertama kali dapat mengenali dan menggunakan software yang digunakan untuk processor sebelumnya.

1985 : Intel386™ Microprocessor
Intel 386 adalah sebuah prosesor yang memiliki 275.000 transistor yang tertanam diprosessor tersebut yang jika dibandingkan dengan 4004 memiliki 100 kali lipat lebih banyak dibandingkan dengan 4004

1989 : Intel486™ DX CPU Microprocessor
Processor yang pertama kali memudahkan berbagai aplikasi yang tadinya harus mengetikkan command-command menjadi hanya sebuah klik saja, dan mempunyai fungsi komplek matematika sehingga memperkecil beban kerja pada processor.

1993 : Intel® Pentium® Processor
Processor generasi baru yang mampu menangani berbagai jenis data seperti suara, bunyi, tulisan tangan, dan foto.

1995 : Intel® Pentium® Pro Processor
Processor yang dirancang untuk digunakan pada aplikasi server dan workstation, yang dibuat untuk memproses data secara cepat, processor ini mempunyai 5,5 jt transistor yang tertanam.

1997 : Intel® Pentium® II Processor
Processor Pentium II merupakan processor yang menggabungkan Intel MMX yang dirancang secara khusus untuk mengolah data video, audio, dan grafik secara efisien. Terdapat 7.5 juta transistor terintegrasi di dalamnya sehingga dengan processor ini pengguna PC dapat mengolah berbagai data dan menggunakan internet dengan lebih baik.

1998 : Intel® Pentium II Xeon® Processor
Processor yang dibuat untuk kebutuhan pada aplikasi server. Intel saat itu ingin memenuhi strateginya yang ingin memberikan sebuah processor unik untuk sebuah pasar tertentu.

1999 : Intel® Celeron® Processor
Processor Intel Celeron merupakan processor yang dikeluarkan sebagai processor yang ditujukan untuk pengguna yang tidak terlalu membutuhkan kinerja processor yang lebih cepat bagi pengguna yang ingin membangun sebuah system computer dengan budget (harga) yang tidak terlalu besar. Processor Intel Celeron ini memiliki bentuk dan formfactor yang sama dengan processor Intel jenis Pentium, tetapi hanya dengan instruksi-instruksi yang lebih sedikit, L2 cache-nya lebih kecil, kecepatan (clock speed) yang lebih lambat, dan harga yang lebih murah daripada processor Intel jenis Pentium. Dengan keluarnya processor Celeron ini maka Intel kembali memberikan sebuah processor untuk sebuah pasaran tertentu.

1999 : Intel® Pentium® III Processor
Processor Pentium III merupakan processor yang diberi tambahan 70 instruksi baru yang secara dramatis memperkaya kemampuan pencitraan tingkat tinggi, tiga dimensi, audio streaming, dan aplikasi-aplikasi video serta pengenalan suara.

1999 : Intel® Pentium® III Xeon® Processor
Intel kembali merambah pasaran server dan workstation dengan mengeluarkan seri Xeon tetapi jenis Pentium III yang mempunyai 70 perintah SIMD. Keunggulan processor ini adalah ia dapat mempercepat pengolahan informasi dari system bus ke processor , yang juga mendongkrak performa secara signifikan. Processor ini juga dirancang untuk dipadukan dengan processor lain yang sejenis.

2000 : Intel® Pentium® 4 Processor
Processor Pentium IV merupakan produk Intel yang kecepatan prosesnya mampu menembus kecepatan hingga 3.06 GHz. Pertama kali keluar processor ini berkecepatan 1.5GHz dengan formafactor pin 423, setelah itu intel merubah formfactor processor Intel Pentium 4 menjadi pin 478 yang dimulai dari processor Intel Pentium 4 berkecepatan 1.3 GHz sampai yang terbaru yang saat ini mampu menembus kecepatannya hingga 3.4 GHz.

2001 : Intel® Xeon® Processor
Processor Intel Pentium 4 Xeon merupakan processor Intel Pentium 4 yang ditujukan khusus untuk berperan sebagai computer server. Processor ini memiliki jumlah pin lebih banyak dari processor Intel Pentium 4 serta dengan memory L2 cache yang lebih besar pula.

2001 : Intel® Itanium® Processor
Itanium adalah processor pertama berbasis 64 bit yang ditujukan bagi pemakain pada server dan workstation serta pemakai tertentu. Processor ini sudah dibuat dengan struktur yang benar-benar berbeda dari sebelumnya yang didasarkan pada desain dan teknologi Intel’s Explicitly Parallel Instruction Computing ( EPIC ).

2002 : Intel® Itanium® 2 Processor
Itanium 2 adalah generasi kedua dari keluarga Itanium

2003 : Intel® Pentium® M Processor
Chipset 855, dan Intel® PRO/WIRELESS 2100 adalah komponen dari Intel® Centrino™. Intel Centrino dibuat untuk memenuhi kebutuhan pasar akan keberadaan sebuah komputer yang mudah dibawa kemana-mana.

2004 : Intel Pentium M 735/745/755 processors
Dilengkapi dengan chipset 855 dengan fitur baru 2Mb L2 Cache 400MHz system bus dan kecocokan dengan soket processor dengan seri-seri Pentium M sebelumnya.

2004 : Intel E7520/E7320 Chipsets

7320/7520 dapat digunakan untuk dual processor dengan konfigurasi 800MHz FSB, DDR2 400 memory, and PCI Express peripheral interfaces.

2005 : Intel Pentium 4 Extreme Edition 3.73GHz
Sebuah processor yang ditujukan untuk pasar pengguna komputer yang menginginkan sesuatu yang lebih dari komputernya, processor ini menggunakan konfigurasi 3.73GHz frequency, 1.066GHz FSB, EM64T, 2MB L2 cache, dan HyperThreading.

2005 : Intel Pentium D 820/830/840
Processor berbasis 64 bit dan disebut dual core karena menggunakan 2 buah inti, dengan konfigurasi 1MB L2 cache pada tiap core, 800MHz FSB, dan bisa beroperasi pada frekuensi 2.8GHz, 3.0GHz, dan 3.2GHz. Pada processor jenis ini juga disertakan dukungan HyperThreading.

2006 : Intel Core 2 Quad Q6600
Processor untuk type desktop dan digunakan pada orang yang ingin kekuatan lebih dari komputer yang ia miliki memiliki 2 buah core dengan konfigurasi 2.4GHz dengan 8MB L2 cache (sampai dengan 4MB yang dapat diakses tiap core ), 1.06GHz Front-side bus, dan thermal design power ( TDP )

2006 : Intel Quad-core Xeon X3210/X3220
Processor yang digunakan untuk tipe server dan memiliki 2 buah core dengan masing-masing memiliki konfigurasi 2.13 dan 2.4GHz, berturut-turut , dengan 8MB L2 cache ( dapat mencapai 4MB yang diakses untuk tiap core ), 1.06GHz Front-side bus, dan thermal design power (TDP)
Read More : Pengertian dan Jenis Processor

Control Unit (CU)



Pengertian Control Unit
CU (control unit) adalah alat yang berfungsi sebagai unit control langsung dan menyelaraskan operasi-operasi dalam komputer (semua perangkat yang terpasang di komputer, mulai dari input device sampai output device). Dalam pengimplementasiannya, control unit dapat dibagi menjadi dua yaitu hardwired dan μprogrammed. Hardwired biasanya digunakan dalam arsitektur RISC, sedangkan untuk μprogrammed digunakan pada arsitektur CISC.
Pada hardwire implementation control unit sebagai combinational circuit yang dibuat berdasarkan control signal yang akan dikeluarkan. Jadi untuk setiap control signal memiliki rangkaian logika tertentu pada control unit yang dapat menghasilkan control signal yang dimaksud. Secara umum untuk metode ini digunakan PLA (programmable logic array) untuk merepresentasikan control signal.
μ programmed
μ programmed implementation tidak menggunakan combinational circuit namun menggunakan μ instruction yang disimpan pada control memory. Proses untuk menghasilkan control signal dimulai dengan sequencing logic yang memberi perintah READ kepada control memory. Kemudian dilanjutkan dengan pemindahan dari CAR (control address register) ke CBR (control buffer register) isi dari alamat yang ditunjukan oleh control memory. Setelah itu CBR mengeluarkan control signal yang dituju dan alamat selanjutnya ke sequencing logic. Terakhir, sequencing logic akan memberikan alamat baru ke CAR berdasarkan informasi dari CBR dan ALU.
Kelebihan μ programmed
Kelebihan dari μ programmed adalah lebih mudah untuk mengimplementasikan dan mendesain control unit. Selain itu dibandingkan dengan hardwired jauh lebih murah. Implementasi dari decoder dan sequencing logic dari μprogrammed merupakan logika yang sederhana, kemudahan untuk melakukan testing dan menambahkan instruksi baru serta dengan desain yang fleksibel.
Kelebihan Hardwire
Sedangkan kelebihan dari hardwire adalah kecepatannya yang tinggi karena logika control unit langsung dibentuk menjadi rangkaian.
Input Control Unit
Input untuk control unit yaitu IR, flags, clock, dan control bus signal. Flags dan control bus signal memiliki representasi secara langsung dan signifikan terhadap operasi bila dibandingkan dengan IR dan clock. Untuk IR sendiri, control unit akan menggunakan operation code yang terdapat di dalam IR. Setiap operation code menandakan setiap proses yang berbeda. Proses ini dapat disederhanakan dengan digunakannnya decoder, decoder memiliki n input dan 2n output yang akan merepresentasikan opcode. Jadi input dari IR akan diterjemahkan oleh decoder sebelum menjadi input ke control unit. Clock digunakan untuk mengukur urasi dai micro operation, untuk mengantisipasi propagasi sinyal yang dikirimkan melalui data paths dan rangkaian prosesor maka periode dari setiap clock seharusnya cukup besar. Untuk mengatasinya digunakan counter yang dapat memberikan clock input bagi control singnal yang berbeda, namun pada akhir instruction cycle, control unit harus mengembalikan ke counter untuk menginisialisasikan periode awal.
Cara Kerja Prosesor
Saat data dan/atau instruksi dimasukkan ke processing-devices, pertama data tersebut diletakkan di RAM (melalui Input-storage); Apabila berbentuk instruksi ditampung oleh Control Unit di Program-storage, namun apabila berbentuk data ditampung di Working-storage). Jika register siap untuk menerima pengerjaan eksekusi, maka Control Unit akan mengambil instruksi dari Program-storage untuk ditampungkan ke Instruction Register, sedangkan alamat memori yang berisikan instruksi tersebut ditampung di Program Counter. Sedangkan data diambil oleh Control Unit dari Working-storage untuk ditampung di General-purpose register (dalam hal ini di Operand-register). Jika berdasar instruksi pengerjaan yang dilakukan adalah arithmatika dan logika, maka ALU akan mengambil alih operasi untuk mengerjakan berdasar instruksi yang ditetapkan. Hasilnya ditampung di Accumulator. Apabila hasil pengolahan telah selesai, maka Control Unit akan mengambil hasil pengolahan di Accumulator untuk ditampung kembali ke Working-storage. Jika pengerjaan keseluruhan telah selesai, maka Control Unit akan menjemput hasil pengolahan dari Working-storage untuk ditampung ke Output-storage. Lalu selanjutnya dari Output-storage, hasil pengolahan akan ditampilkan ke output-devices.
Tugas dari CU adalah sebagai berikut:
  1. Mengatur dan mengendalikan alat-alat input dan output.
  2. Mengambil instruksi-instruksi dari memori utama.
  3. Mengambil data dari memori utama kalau diperlukan oleh proses.
  4. Mengirim instruksi ke ALU bila ada perhitungan aritmatika atau perbandingan logika serta mengawasi kerja.
  5. Menyimpan hasil proses ke memori utama.
Macam-macam CU
a. Single-Cycle CU
Proses di CUl ini hanya terjadi dalam satu clock cycle, artinya setiap instruksi ada pada satu cycle, maka dari itu tidak memerlukan state. Dengan demikian fungsi boolean masing-masing control line hanya merupakan fungsi dari opcode saja. Clock cycle harus mempunyai panjang yang sama untuk setiap jenis instruksi. Ada dua bagian pada unit kontrol ini, yaitu proses men-decode opcode untuk mengelompokkannya menjadi 4 macam instruksi (yaitu di gerbang AND), dan pemberian sinyal kontrol berdasarkan jenis instruksinya (yaitu gerbang OR). Keempat jenis instruksi adalah “R-format” (berhubungan dengan register), “lw” (membaca memori), “sw” (menulis ke memori), dan “beq” (branching). Sinyal kontrol yang dihasilkan bergantung pada jenis instruksinya. Misalnya jika melibatkan memori ”R-format” atau ”lw” maka akan sinyal ”Regwrite” akan aktif. Hal lain jika melibatkan memori “lw” atau “sw” maka akan diberi sinyal kontrol ke ALU, yaitu “ALUSrc”. Desain single-cycle ini lebih dapat bekerja dengan baik dan benar tetapi cycle ini tidak efisien.
b. Multi-Cycle CU
Berbeda dengan unit kontrol yang single-cycle, unit kontrol yang multi-cycle lebih memiliki banyak fungsi. Dengan memperhatikan state dan opcode, fungsi boolean dari masing-masing output control line dapat ditentukan. Masing-masingnya akan menjadi fungsi dari 10 buah input logic. Jadi akan terdapat banyak fungsi boolean, dan masing-masingnya tidak sederhana. Pada cycle ini, sinyal kontrol tidak lagi ditentukan dengan melihat pada bit-bit instruksinya. Bit-bit opcode memberitahukan operasi apa yang selanjutnya akan dijalankan CPU; bukan instruksi cycle selanjutnya.
Read More : Control Unit (CU)

Pengertian dan Cara Kerja Arithmatic Logical Unit (ALU)

Arithmatic Logical Unit (ALU), adalah salah satu bagian/komponen dalam sistem di dalam sistem komputer yang berfungsi melakukan operasi/perhitungan aritmatika dan logika (Contoh operasi aritmatika adalah operasi penjumlahan dan pengurangan, sedangkan contoh operasi logika adalah logika AND dan OR. ALU bekerja besama-sama memori, di mana hasil dari perhitungan di dalam ALU di simpan ke dalam memori.>>
Perhitungan dalam ALU menggunakan kode biner, yang merepresentasikan instruksi yang akan dieksekusi (opcode) dan data yang diolah (operand). ALU biasanya menggunakan sistem bilangan biner two’s complement. ALU mendapat data dari register. Kemudian data tersebut diproses dan hasilnya akan disimpan dalam register tersendiri yaitu ALU output register, sebelum disimpan dalam memori.>>
Pada saat sekarang ini sebuah chip/IC dapat mempunyai beberapa ALU sekaligus yang memungkinkan untuk melakukan kalkulasi secara paralel. Salah satu chip ALU yang sederhana (terdiri dari 1 buah ALU) adalah IC 74LS382/HC382ALU (TTL). IC ini terdiri dari 20 kaki dan beroperasi dengan 4×2 pin data input (pinA dan pinB) dengan 4 pin keluaran (pinF).>>
Arithmatic Logical Unit (ALU), fungsi unit ini adalah untuk melakukan suatu proses data yang berbentuk angka dan logika, seperti data matematika dan statistika. ALU terdiri dari register-register untuk menyimpan informasi.Tugas utama dari ALU adalah melakukan perhitungan aritmatika (matematika) yang terjadi sesuai dengan instruksi program. Rangkaian pada ALU (Arithmetic and Logic Unit) yang digunakan untuk menjumlahkan bilangan dinamakan dengan Adder. Adder digunakan untuk memproses operasi aritmetika, Adder juga disebut rangkaian kombinasional aritmatika.>>
Ada 3 jenis adder:>>
    1. Rangkaian Adder dengan menjumlahkan dua bit disebut Half Adder.>>
    2. Rangkaian Adder dengan menjumlahkan tiga bit disebut Full Adder.>>
    3. Rangkain Adder dengan menjumlahkan banyak bit disebut Paralel Adder

         1. HALF ADDER>>
Rangkaian Half Adder merupakan dasar penjumlahan bilangan Biner yang terdiri dari satu bit, oleh karena itu dinamai Penjumlah Tak Lengkap.>>
a. jika A = 0 dan B = 0 dijumlahkan, hasilnya S ( Sum ) = 0.>>
b. jika A = 0 dan B = 1 dijumlahkan, hasilnya S ( Sum ) = 1.>>
c. jika A = 1 dan B = 1 dijumlahkan, hasilnya S ( Sum ) = 0>>
jika A = 1 dan B =1 dijumlahkan, hasilnya S ( Sum ) = 0. dengan nilai pindahan cy(Carry Out) = 1>>
Dengan demikian, half adder memiliki 2 masukan ( A dan B ) dan dua keluaran ( S dan Cy ).

2. FULL ADDER>>
Sebuah Full Adder menjumlahkan dua bilangan yang telah dikonversikan menjadi bilangan-bilangan biner. Masing-masing bit pada posisi yang sama saling dijumlahkan. Full Adder sebagai penjumlah pada bit-bit selain yang terendah. Full Adder menjumlahkan dua bit input ditambah dengan nilai Carry-Out dari penjumlahan bit sebelumnya. Output dari Full Adder adalah hasil penjumlahan (Sum) dan bit kelebihannya (carry-out).>>

3. PARALEL  ADDER>>
Rangkaian Parallel Adder adalah rangkaian penjumlah dari dua bilangan yang telah dikonversikan ke dalam bentuk biner. Anggap ada dua buah register A dan B, masing-masing register terdiri dari 4 bit biner : A3A2A1A0 dan B3B2B1B0.>>
Rangkaian Parallel Adder terdiri dari Sebuah Half Adder (HA) pada Least Significant Bit (LSB) dari masing-masing input dan beberapa Full Adder pada bit-bit berikutnya. Prinsip kerja dari Parallel Adder adalah sebagai berikut : penjumlahan dilakukan mulai dari LSB-nya. Jika hasil penjumlahan adalah bilangan desimal “2” atau lebih, maka bit kelebihannya disimpan pada Cout, sedangkan bit di bawahnya akan dikeluarkan pada Σ. Begitu seterusnya menuju ke Most Significant Bit (MSB)nya.>>
Tugas lain dari ALU adalah melakukan keputusan dari operasi sesuai dengan instruksi program yaitu operasi logika (logical operation). Operasi logika meliputi perbandingan dua buah elemen logika dengan menggunakan operator logika.>>
Arithmatic Logical Unit (ALU):>>
·         Bertugas membentuk fungsi – fungsi pengolahan data komputer.>>
·         ALU sering disebut mesin bahasa (machine language) karena bagian ini mengerjakan instruksi – instruksi bahasa mesin yang diberikan padanya>>
·         ALU terdiri dari dua bagian, yaitu unit arithmetika dan unit logika boolean, yang masing – masing memiliki spesifikasi dan tugas tersendiri.>>
Fungsi-fungsi yang didefinisikan pada ALU adalah Add(penjumlahan), Addu (penjumlahan tidak bertanda), Sub(pengurangan), Subu (pengurangan tidak bertanda), and, or, xor, sll (shift left logical), srl (shift right logical), sra (shift right arithmetic), dan lain-lain.>>
Arithmetic Logical Unit (ALU) merupakan unit penalaran secara logic. ALU ini merupakan Sirkuit CPU berkecepatan tinggi yang bertugas menghitung dan membandingkan. Angka-angka dikirim dari memori ke ALU untuk dikalkulasi dan kemudian dikirim kembali ke memori. Jika CPU diasumsikan sebagai otaknya komputer, maka ada suatu alat lain di dalam CPU tersebut yang kenal dengan nama Arithmetic Logical Unit (ALU), ALU inilah yang berfikir untuk menjalankan perintah yang diberikan kepada CPU tersebut.>>
ALU sendiri merupakan suatu kesatuan alat yang terdiri dari berbagai komponen perangkat elektronika termasuk di dalamnya sekelompok transistor, yang dikenal dengan nama logic gate, dimana logic gate ini berfungsi untuk melaksanakan perintah dasar matematika dan operasi logika. Kumpulan susunan dari logic gate inilah yang dapat melakukan perintah perhitungan matematika yang lebih komplit seperti perintah “adduntuk menambahkan bilangan, atau “devideatau pembagian dari suatu bilangan. Selain perintah matematika yang lebih komplit, kumpulan dari logic gate ini juga mampu untuk melaksanakan perintah yang berhubungan dengan logika, seperti hasil perbandingan dua buah bilangan.>>
Instruksi yang dapat dilaksanakan oleh ALU disebut dengan instruction set. Perintah yang ada pada masing-masing CPU belum tentu sama, terutama CPU yang dibuat oleh pembuat yang berbeda, katakanlah misalnya perintah yang dilaksanakan oleh CPU buatan Intel belum tentu sama dengan CPU yang dibuat oleh Sun atau perusahaan pembuat mikroprosesor lainnya. Jika perintah yang dijalankan oleh suatu CPU dengan CPU lainnya adalah sama, maka pada level inilah suatu sistem dikatakan compatible. Sehingga sebuah program atau perangkat lunak atau software yang dibuat berdasarkan perintah yang ada pada Intel tidak akan bisa dijalankan untuk semua jenis prosesor,kecuali untuk prosesor yang compatible dengannya.>>
Seperti halnya dalam bahasa yang digunakan oleh manusia, instruction set ini juga memiliki aturan bahasa yang bisa saja berbeda satu dengan lainnya. Bandingkanlah beda struktur bahasa Inggris dengan Indonesia, atau dengan bahasa lainnya, begitu juga dengan instruction set yang ada pada mesin, tergantung dimana lingkungan instruction set itu digunakan.

Read More : Pengertian dan Cara Kerja Arithmatic Logical Unit (ALU)

Fungsi Processor


fungsi processorProcessor (CPU, Central Processing Unit) adalah otak dari sebuah komputer. Komponen computer ini memungkinkan pengolahan data angka, yang berupa informasi yang dimasukkan dalam bentuk biner, dan eksekusi instruksi yang tersimpan dalam memori.
Microprocessor pertama (Intel 4004) ditemukan pada tahun 1971. Microprocessor ini merupakan perangkat perhitungan 4-bit dengan kecepatan 108 kHz. Sejak itu, mikroprosesor telah tumbuh secara eksponensial. Jadi apa sebenarnya potongan-potongan kecil silikon yang menjalankan komputer kita ini? Itulah yang akan kita bahas.
Penjelasan Tentang Prosesor Intel 4004

Processor
Processor (CPUyang disebut juga Central Processing Unit) adalah sebuah sirkuit elektronik yang beroperasi pada suatu kecepatan berkat clock internal pada sebuah kristal kuarsa, yang mengalami sebuah kismis listrik, yang disebut “peak”. Clock speed (juga disebut siklus), adalah jumlah kiriman getaran per detik, ditulis dalam Hertz (Hz). Dengan demikian, komputer 200 MHz memiliki clock yang mengirimkan getaran pulse 200.000.000 per detik. Clock frekuensi umumnya merupakan kelipatan dari frekuensi sistem (FSB, Front-Side Bus), yang berarti kelipatan dari frekuensi motherboard.
Pada setiap puncak clock, prosesor melakukan tindakan yang sesuai untuk sebuah instruksi atau bagian daripadanya. Alat ukurnya disebut CPI (Cycles Per Instruction) merupakan representasi dari rata-rata jumlah siklus clock yang diperlukan oleh microprocessor untuk mengeksekusi instruksi. Daya sebuah microprocess dapat dicirikan dari jumlah instruksi per detik yang ia mampu kerjakan. MIPS (millions of instructions per second) adalah satuan yang digunakan sesuai dengan frekuensi prosesor dibagi dengan CPI.
Sebuah instruksi adalah operasi dasar yang dapat diselesaikan prosesor. Instruksi disimpan dalam memori utama, menunggu untuk diproses oleh prosesor. Sebuah instruksi memiliki dua bidang:
  • Operation code (Kode operasi), yang merupakan tindakan yang harus dieksekusi prosesor;
  • Operand code (Kode operan), yang mendefinisikan parameter dari tindakan. Kode operan tergantung pada operasi.
  • Operation Code Operand Field
Jumlah bit dalam sebuah instruksi bervariasi menurut jenis data (antara 1 dan 4 byte 8-bit). Instruksi dapat dikelompokkan berdasarkan kategori, di mana yang utama adalah:
  1. Memory Access: mengakses memori atau mentransfer data antara register.
  2. Arithmetic Operations: melakukan operasi seperti penambahan, pengurangan pembagian, atau perkalian.
  3. Logic Operations: seperti operasi AND, OR, NOT, EXCLUSIVE NOT, dll
  4. Control: urutan kontrol, koneksi kondisional, dll
Register
Ketika prosesor mengeksekusi instruksi, data disimpan sementara dalam lokasi kecil di memori lokal bit 8, 16, 32 atau 64 disebut register. Tergantung pada jenis prosesor, jumlah keseluruhan dari register dapat bervariasi dari sekitar sepuluh sampai ratusan.
Register utama adalah:
  1. Register akumulator (accumulator register atau ACC), yang menyimpan hasil operasi aritmatika dan logika;
  2. Register status (PSW, Processor Status Word), yang memegang indikator status sistem (membawa digit, overflow, dll);
  3. Register instruksi (RI, instruction register), yang berisi instruksi yang sedang diproses saat ini;
  4. Counter ordinal atau ordinal counter (OC or PC for Program Counter), yang berisi alamat dari instruksi berikutnya untuk proses;
  5. Register buffer, yang menyimpan data sementara dari memori.
Memori Cache
Memori cache (juga disebut memori buffer) yaitu memori lokal yang mengurangi waktu tunggu untuk informasi yang tersimpan dalam RAM (Random Access Memory). Jika waktu tunggu lama, maka memori utama komputer akan lebih lambat dibandingkan dengan prosesor. Namun jenis memori yang lebih cepat memmbutuhkan biaya yang sangat meningkat. Solusinya adalah menyertakan jenis memori lokal pada prosesor dan menyimpan untuk sementara waktu data primer untuk diproses. Model komputer terbaru memiliki tingkat yang berbeda-beda tentang besarnya memori cache;
  1. Cache memori Level satu (disebut Cache L1, untuk Level 1 Cache) secara langsung terintegrasi ke dalam prosesor. Level 1 cache dapat diakses dengan sangat cepat. Bagian ini dibagi menjadi dua bagian:
    1. Bagian pertama adalah cache instruksi, yang berisi petunjuk dari RAM yang telah diterjemahkan saat mereka datang melalui pipelines.
    2. Bagian kedua adalah data cache, yang berisi data dari RAM dan data terakhir digunakan selama operasi prosesor.
  2. Cache memori Level dua (disebut L2 Cache, untuk Level 2 Cache) terletak dalam case bersama dengan prosesor (dalam chip). Level dua cache perantara antara prosesor dengan cache internal, dan RAM. Bagian ini dapat diakses lebih cepat daripada RAM, tetapi kurang cepat dari cache tingkat satu.
  3. Tingkat tiga cache memori (disebut L3 Cache, untuk Level 3 Cache) terletak pada motherboard.
Semua tingkat cache mengurangi waktu latency berbagai jenis memori saat memproses atau mentransfer informasi. Sementara prosesor bekerja, pengendali cache tingkat satu dapat tukar-menukar dengan kontroler tingkat dua untuk mentransfer informasi tanpa menghambat prosesor. Selain itu, antarmuka cache tingkat dua dengan RAM (tingkat tiga cache) memungkinkan transfer tanpa menghalangi operasi prosesor secara normal.
Sinyal Kontrol
Sinyal kontrol adalah sinyal elektronik yang mengatur berbagai unit prosesor berpartisipasi dalam pelaksanaan sebuah instruksi. Sinyal kontrol dikirim menggunakan elemen yang disebut sebuah sequencer. Misalnya, Read/Write sinyal memungkinkan memori yang akan diberitahu bahwa prosesor ingin membaca atau menulis informasi. Diagram di bawah ini memberikan representasi yang disederhanakan dari unsur-unsur yang membentuk prosesor (layout fisik dari elemen-elemen berbeda dari tata letak mereka yang sebenarnya):
Processor
Transistor
Untuk memproses informasi, mikroprosesor memiliki sekelompok instruksi, yang disebut ” instruction set”, yang dimungkinkan oleh sirkuit elektronik. Lebih tepatnya, set instruksi dibuat dengan bantuan semikonduktor, “circuit switches” kecil yang menggunakan efek transistor, ditemukan pada tahun 1947 oleh John Barden, Walter H. Brattain dan William Shockley yang menerima Hadiah Nobel pada tahun 1956 untuk itu.
Sebuah transistor (kontraksi resistor transfer) adalah komponen semi-konduktor elektronik yang memiliki tiga elektroda dan mampu memodifikasi obyek saat melewatinya menggunakan salah satu elektrodanya (disebut kontrol elektroda). Ini disebut sebagai “komponen aktif”, berbeda dengan “komponen pasif”, seperti resistensi atau kapasitor yang hanya memiliki dua elektroda (disebut sebagai “bipolar”).
MOS Transistor
Sebuah transistor MOS (metal, oxide, silicone) adalah jenis yang paling umum dari transistor digunakan untuk merancang sirkuit terpadu. MOS transistor memiliki dua area bermuatan negatif, masing-masing disebut sumber (yang memiliki muatan hampir nol) dan tiriskan (yang memiliki muatan 5V), dipisahkan oleh suatu wilayah bermuatan positif, disebut substrat). Substrat memiliki kontrol lapis elektroda, disebut gerbang, yang memungkinkan charge yang akan diterapkan pada substrat.
Ketika tidak ada muatan pada elektroda kontrol, substrat yang bermuatan positif bertindak sebagai penghalang dan mencegah gerakan elektron. Namun, ketika charge diterapkan ke pintu gerbang, muatan positif substrat ditolak dan saluran komunikasi yang bermuatan negatif dibuka antara source and the drain.
Transistor dalam hal ini bertindak sebagai saklar program, berkat kontrol elektroda. Ketika charge diterapkan ke elektroda kontrol, ia bertindak sebagai interrupter tertutup dan ketika tanpa charge bertindak sebagai interrupter terbuka.
Sirkuit Terpadu (IC, Integrate Circuit)
Setelah digabungkan, transistor dapat membuat sirkuit logika, yang jika digabungkan, akhirnya membentuk yang kita sebut sekarang sebagai prosesor. Sirkuit terpadu pertama dibuat tahun 1958 dan dibangun oleh Texas Instruments.
MOS transistor merupakan kepingan dari silikon (disebut wafer) yang diperoleh setelah beberapa proses. Kepingan silikon ini dipotong menjadi elemen-elemen segi empat membentuk “circuit”. Sirkuit kemudian ditempatkan dalam case-case dengan konektor input-output dan jumlah dari bagian-bagian ini membuat sebuah “sirkuit terpadu”. Bisa terdapat jutaan transistor pada satu prosesor tunggal.
Hukum Moore, ditulis pada tahun 1965 oleh Gordon E. Moore, pendiri Intel, memprediksikan bahwa kinerja prosesor (dengan perluasan dari jumlah transistor terintegrasi dalam silikon) akan berlipat ganda setiap dua belas bulan. Hukum ini telah direvisi pada tahun 1975, membawa jumlah bulan sampai dengan 18. Karena case persegi panjang berisi pin input-output yang mirip kaki, “electronic flea” maka dalam bahasa Prancis digunakan untuk merujuk ke sirkuit terpadu.
Prosesor dikelompokkan ke dalam kluster berikut, sesuai dengan set instruksi yang unik:
1. 80×86: “x” mewakili keluarga. Oleh karena itu dibuat untuk 386, 486, 586, 686, dll
2. ARM
3. IA-64
4. MIPS
5. Motorola 6800
6. PowerPC
7. SPARC
Hal ini menjelaskan mengapa program diproduksi untuk jenis prosesor tertentu hanya dapat langsung bekerja pada sistem dengan jenis prosesor lain jika ada instruksi terjemahan, yang disebut emulasi. Istilah “emulator” digunakan untuk merujuk pada program melakukan terjemahan ini.
Instruction Set
Sebuah set instruksi adalah jumlah operasi dasar yang dapat diselesaikan prosesor. Sebuah set instruksi processor adalah faktor yang menentukan dalam arsitektur, bahkan meskipun arsitektur yang sama dapat mengakibatkan implementasi yang berbeda oleh produsen yang berbeda. Prosesor bekerja efisien berkat sejumlah instruksi, yang didesain untuk sirkuit elektronik. Kebanyakan operasi dapat dilakukan dengan menggunakan fungsi dasar.
Arsitektur CISC
CISC (Complex Instruction Set Computer) berarti arsitektur hardwiring prosesor dengan instruksi kompleks yang sulit untuk membuat menggunakan petunjuk dasar. CISC sangat populer di tipe prosesor 80×86. Jenis arsitektur processor ini memiliki biaya tinggi karena fungsi-fungsi lanjutan tercetak pada silikon tersebut.
Variabel Instruksi panjang kadang-kadang membutuhkan lebih dari satu siklus clock. Karena itu prosesor berbasis CISC hanya dapat memproses satu instruksi pada satu waktu, waktu proses adalah ukuran dari fungsi instruksi.
Arsitektur RISC
Prosesor dengan RISC (Reduced Instruction Set Computer) adalah teknologi yang tidak memiliki fungsi-fungsi lanjutan terprogram. Instruksi dieksekusi hanya dalam satu siklus clock, yang mempercepat eksekusi program bila dibandingkan dengan prosesor CISC. Akhirnya, prosesor ini bisa menangani beberapa instruksi secara bersamaan dengan memproses mereka secara paralel.
Perbaikan Teknologi
Sepanjang waktu, produsen mikroprosesor (disebut pendiri) telah mengembangkan sejumlah perbaikan yang mengoptimalkan kinerja prosesor. Pengolahan Paralel yang diterapkan secara simultan melaksanakan instruksi dari program yang sama pada prosesor yang berbeda. Ini melibatkan pembagian sebuah program menjadi beberapa proses yang ditangani secara paralel untuk mengurangi waktu tunggu eksekusi.
Pipelining
Pipelining adalah teknologi yang meningkatkan kecepatan eksekusi instruksi dengan meletakkan langkah-langkah menjadi paralel. Untuk memahami mekanisme pipelining, pertama-tama perlu untuk memahami fase eksekusi dari sebuah instruksi. Pelaksanaan tahapan instruksi untuk prosesor dengan 5-langkah adalah sebagai berikut:
  • FETCH: (mengambil instruksi dari cache;
  • DeCODE: decode instruksi dan terlihat untuk operan (mendaftar atau nilai-nilai langsung);
  • EXECUTE: melakukan instruksi (misalnya, jika itu adalah instruksi ADD, penambahan dilakukan, jika instruksi SUB, pengurangan dilakukan, dll);
  • MEMORY: mengakses memori, dan menulis data atau mengambil data;
  • WRITE BACK (retire): mencatat nilai yang dihitung di register.
Instruksi diatur dalam baris dalam memori dan dimuat satu demi satu. Berkat pipeline, pengolahan instruksi tidak memerlukan lebih dari lima langkah sebelumnya. Namun urutan langkah ini tak berubah (FETCH, DECODE, EXECUTE, MEMORY, WRITE BACK), adalah mungkin untuk membuat sirkuit khusus dalam masing-masing prosesor.
HyperThreading
HyperThreading (ditulis HT) adalah teknologi yang menempatkan dua prosesor logika dalam satu prosesor fisik. Dengan demikian, sistem mengakui dua prosesor fisik dan berperilaku seperti sistem multitasking dengan mengirimkan dua thread secara simultan, disebut sebagai SMT (Simultaneous Multi Threading). Ini merupakan “manipulasi” yang memungkinkan sumber daya prosesor menjadi lebih baik dengan kecepatan kerja lebih tinggi.
Read More : Fungsi Processor

280 PX

280 Px

280 Px

280 Px

  © Free Blogger templates The Robotic by Kang Oemar templates 2009

Kembali Ke : ATAS