Pengertian CPU
PENGERTIAN CPU BESERTA FUNGSINYA
Bentuk, desain , dan implementasi CPU telah berubah selama sejarah mereka, tetapi operasi fundamental mereka hampir tidak berubah. Komponen utama CPU termasuk unit logika aritmatika (ALU) yang melakukan operasi aritmatika dan logika , register prosesor yang memasok operan ke ALU dan menyimpan hasil operasi ALU, dan unit kontrol yang mengatur pengambilan (dari memori) dan eksekusi instruksi dengan mengarahkan operasi terkoordinasi dari ALU, register dan komponen lainnya.
Kebanyakan CPU modern mikroprosesor , di mana CPU yang terkandung pada satu logam-oksida-semikonduktor (MOS) sirkuit terpadu (IC) chip yang. IC yang berisi CPU juga dapat berisi memori , antarmuka periferal , dan komponen lain dari komputer; perangkat terintegrasi semacam itu disebut mikrokontroler atau sistem pada sebuah chip (SoC). Beberapa komputer menggunakan prosesor multi-core , yang merupakan satu chip atau " socket " yang mengandung dua atau lebih CPU yang disebut "core".
Prosesor array atau prosesor vektor memiliki beberapa prosesor yang beroperasi secara paralel, tanpa unit yang dianggap sentral. CPU virtual adalah abstraksi dari sumber daya komputasi agregat dinamis.
Sejarah CPU COMPUTER
Komputer awal seperti ENIAC harus secara fisik ditata ulang untuk melakukan tugas yang berbeda, yang menyebabkan mesin ini disebut "komputer program tetap". Karena istilah "CPU" secara umum didefinisikan sebagai perangkat untuk eksekusi perangkat lunak (program komputer), perangkat paling awal yang dapat disebut CPU datang bersamaan dengan munculnya komputer program tersimpan .
Gagasan tentang komputer disimpan-program telah sudah hadir dalam desain J. Presper Eckert dan John William Mauchly 's ENIAC , tapi awalnya dihilangkan sehingga bisa selesai lebih cepat. Pada 30 Juni 1945, sebelum ENIAC dibuat, matematikawan John von Neumann mendistribusikan makalah berjudul Draf Pertama Laporan tentang EDVAC . Itu adalah garis besar dari komputer program tersimpan yang pada akhirnya akan selesai pada Agustus 1949. EDVAC dirancang untuk melakukan sejumlah instruksi (atau operasi) tertentu dari berbagai jenis. Secara signifikan, program yang ditulis untuk EDVAC harus disimpan dalam memori komputer berkecepatan tinggidaripada ditentukan oleh kabel fisik komputer. Ini mengatasi keterbatasan parah ENIAC, yang merupakan waktu dan upaya yang diperlukan untuk mengkonfigurasi ulang komputer untuk melakukan tugas baru. Dengan desain von Neumann, program yang dijalankan EDVAC dapat diubah hanya dengan mengubah isi memori. EDVAC, bagaimanapun, bukan komputer program yang tersimpan pertama; yang Manchester Bayi , komputer skala kecil eksperimental disimpan-program, menjalankan program pertama pada 21 Juni 1948 dan Manchester Mark 1 berlari program pertama pada malam 16-17 Juni 1949.
CPU awal adalah desain khusus yang digunakan sebagai bagian dari komputer yang lebih besar dan terkadang berbeda. Namun, metode ini merancang CPU khusus untuk aplikasi tertentu sebagian besar telah memberi jalan kepada pengembangan prosesor multi-tujuan yang diproduksi dalam jumlah besar. Standarisasi ini dimulai pada era mainframe transistor diskrit dan minicomputer dan telah dengan cepat dipercepat dengan mempopulerkan sirkuit terintegrasi (IC). IC telah memungkinkan CPU yang semakin kompleks untuk dirancang dan diproduksi dengan toleransi pada urutan nanometer . Baik miniaturisasi dan standarisasi CPU telah meningkatkan kehadiran perangkat digital dalam kehidupan modern jauh melampaui aplikasi terbatas mesin komputasi khusus. Mikroprosesor modern muncul dalam perangkat elektronik mulai dari mobil ke ponsel, dan kadang-kadang bahkan dalam mainan.
Sementara von Neumann paling sering dikreditkan dengan desain komputer program yang tersimpan karena desainnya EDVAC, dan desain itu dikenal sebagai arsitektur von Neumann , yang lain sebelum dia, seperti Konrad Zuse , telah menyarankan dan menerapkan ide-ide serupa. yang disebut The Harvard arsitektur dari Harvard Mark I , yang selesai sebelum EDVAC, juga menggunakan desain disimpan-program menggunakan pita kertas daripada memori elektronik. Perbedaan utama antara arsitektur von Neumann dan Harvard adalah bahwa yang terakhir memisahkan penyimpanan dan perawatan instruksi dan data CPU, sementara yang pertama menggunakan ruang memori yang sama untuk keduanya. Sebagian besar CPU modern dirancang terutama oleh von Neumann, tetapi CPU dengan arsitektur Harvard juga terlihat, terutama dalam aplikasi yang disematkan; misalnya, mikrokontroler Atmel AVR adalah prosesor arsitektur Harvard.
Relay dan tabung vakum ( tabung termionik) umumnya digunakan sebagai elemen switching; komputer yang berguna membutuhkan ribuan atau puluhan ribu perangkat switching. Kecepatan keseluruhan sistem tergantung pada kecepatan sakelar. Komputer tabung seperti EDVAC cenderung rata-rata delapan jam antara kegagalan, sedangkan komputer relay seperti (lebih lambat, tetapi sebelumnya) Harvard Mark I gagal sangat jarang. Pada akhirnya, CPU berbasis tabung menjadi dominan karena keunggulan kecepatan signifikan yang diberikan umumnya melebihi masalah keandalan. Sebagian besar CPU sinkron awal ini berjalan pada kecepatan clock rendahdibandingkan dengan desain mikroelektronik modern. Frekuensi sinyal clock mulai dari 100 kHz hingga 4 MHz sangat umum pada saat ini, sebagian besar dibatasi oleh kecepatan perangkat switching yang mereka gunakan.
CPU TRANSISTOR
Kompleksitas desain CPU meningkat karena berbagai teknologi memfasilitasi pembangunan perangkat elektronik yang lebih kecil dan lebih andal. Perbaikan pertama seperti itu datang dengan munculnya transistor . CPU yang dipindahtangankan pada 1950-an dan 1960-an tidak lagi harus dibangun dari elemen switching yang besar, tidak dapat diandalkan, dan rapuh seperti tabung vakum dan relay . Dengan peningkatan ini, CPU yang lebih kompleks dan andal dibangun di atas satu atau beberapa papan sirkuit cetak yang mengandung komponen terpisah (individu).
Pada tahun 1964, IBM memperkenalkan arsitektur komputer IBM System / 360 yang digunakan dalam serangkaian komputer yang mampu menjalankan program yang sama dengan kecepatan dan kinerja yang berbeda. Ini penting pada saat kebanyakan komputer elektronik tidak kompatibel satu sama lain, bahkan yang dibuat oleh pabrikan yang sama. Untuk memfasilitasi peningkatan ini, IBM menggunakan konsep mikroprogram (sering disebut "mikrokode"), yang masih melihat penggunaan luas dalam CPU modern. Arsitektur System / 360 sangat populer sehingga mendominasi pasar komputer mainframe selama beberapa dekade dan meninggalkan warisan yang masih diteruskan oleh komputer modern serupa seperti IBM zSeries. Pada tahun 1965, Digital Equipment Corporation (DEC) memperkenalkan komputer berpengaruh lainnya yang ditujukan untuk pasar ilmiah dan penelitian, PDP-8 .
Komputer berbasis transistor memiliki beberapa keunggulan berbeda dibandingkan pendahulunya. Selain memfasilitasi peningkatan keandalan dan konsumsi daya yang lebih rendah, transistor juga memungkinkan CPU beroperasi pada kecepatan yang jauh lebih tinggi karena waktu switching yang singkat dibandingkan dengan tabung atau relay. Peningkatan keandalan dan peningkatan dramatis dari elemen-elemen switching (yang hampir secara eksklusif merupakan transistor pada saat ini), kecepatan clock CPU dalam puluhan megahertz mudah diperoleh selama periode ini. Selain itu sementara transistor diskrit dan CPU IC dalam penggunaan berat, desain baru berkinerja tinggi seperti prosesor vektor SIMD (Single Instruction Multiple Data) mulai muncul. Desain ini awal eksperimen kemudian memunculkan era khusus superkomputer seperti yang dibuat oleh Cray Inc dan Fujitsu Ltd .
Selama periode ini, metode pembuatan banyak transistor yang saling berhubungan dalam ruang yang kompak dikembangkan. The sirkuit terpadu (IC) diperbolehkan sejumlah besar transistor akan diproduksi pada satu semikonduktor berbasis die , atau "Chip". Pada awalnya, hanya rangkaian digital non-khusus yang sangat khusus seperti gerbang NOR yang miniatur menjadi IC. CPU berdasarkan IC "blok bangunan" ini umumnya disebut sebagai perangkat "integrasi skala kecil" (SSI). SSI IC, seperti yang digunakan di Apollo Guidance Computer, biasanya berisi hingga beberapa lusin transistor. Untuk membangun seluruh CPU dari SSI IC diperlukan ribuan chip individual, tetapi masih mengkonsumsi ruang dan daya yang jauh lebih sedikit daripada desain transistor diskrit sebelumnya.
IBM System / 370 , lanjutan ke System / 360, menggunakan IC SSI daripada modul transistor-diskrit Solid Logic Technology . DEC PDP-8 / I dan KI10 PDP-10 juga beralih dari masing-masing transistor yang digunakan oleh PDP-8 dan PDP-10 ke IC SSI, dan jalur PDP-11 mereka yang sangat populer pada awalnya dibangun dengan IC SSI tetapi akhirnya diimplementasikan dengan komponen LSI setelah ini menjadi praktis.
CPU integrasi skala besar
The MOSFET (metal-oxide-semiconductor field-effect transistor), juga dikenal sebagai transistor MOS, diciptakan oleh Mohamed Atalla dan Dawon Kahng di Bell Labs pada tahun 1959, dan didemonstrasikan pada tahun 1960. Hal ini menyebabkan perkembangan Sirkuit terpadu MOS (metal-oxide-semiconductor), diusulkan oleh Atalla pada tahun 1960 dan Kahng pada tahun 1961, dan kemudian dibuat oleh Fred Heiman dan Steven Hofstein di RCA pada tahun 1962. Dengan skalabilitasnya yang tinggi , dan konsumsi daya yang jauh lebih rendah dan kepadatan yang lebih tinggi daripada transistor persimpangan bipolar ,MOSFET memungkinkan untuk membangunsirkuit terintegrasi kepadatan tinggi.
Lee Boysel menerbitkan artikel-artikel berpengaruh, termasuk "manifesto" 1967, yang menggambarkan bagaimana membangun komputer mainframe 32-bit yang setara dari sejumlah kecil sirkuit integrasi skala besar (LSI). Satu-satunya cara untuk membangun chip LSI, yang merupakan chip dengan seratus atau lebih gerbang, adalah membangunnya menggunakan proses pembuatan semikonduktor MOS (baik logika PMOS , logika NMOS , atau logika CMOS ). Namun, beberapa perusahaan terus membangun prosesor dari chip bipolar transistor-transistor logic (TTL) karena transistor persimpangan bipolar lebih cepat daripada chip MOS hingga tahun 1970-an (beberapa perusahaan sepertiDatapoint terus membangun prosesor dari chip TTL sampai awal 1980-an). Pada 1960-an, MOS IC lebih lambat dan awalnya dianggap hanya berguna dalam aplikasi yang membutuhkan daya rendah. Mengikuti perkembangan teknologi gerbang silikon oleh Federico Faggin di Fairchild Semiconductor pada tahun 1968, IC MOS sebagian besar menggantikan TTL bipolar sebagai teknologi chip standar pada awal tahun 1970-an.
Sebagai teknologi mikroelektronika maju, semakin banyak transistor ditempatkan pada IC, mengurangi jumlah IC individu yang diperlukan untuk CPU lengkap. MSI dan LSI IC meningkatkan jumlah transistor hingga ratusan, dan kemudian ribuan. Pada 1968, jumlah IC yang diperlukan untuk membangun CPU lengkap telah dikurangi menjadi 24 IC dari delapan jenis yang berbeda, dengan masing-masing IC berisi sekitar 1000 MOSFET. Berbeda sekali dengan pendahulunya SSI dan MSI, implementasi LSI pertama dari PDP-11 berisi CPU yang hanya terdiri dari empat sirkuit terintegrasi LSI.
Mikroprosesor
Kemajuan teknologi IC MOS menyebabkan penemuan mikroprosesor pada awal 1970-an. Sejak diperkenalkannya mikroprosesor pertama yang tersedia secara komersial, Intel 4004 pada tahun 1971, dan mikroprosesor pertama yang banyak digunakan, Intel 8080 pada tahun 1974, kelas CPU ini hampir sepenuhnya menyalip semua metode implementasi unit pemrosesan pusat lainnya. Mainframe dan produsen komputer mini pada waktu itu meluncurkan program pengembangan IC eksklusif untuk meningkatkan arsitektur komputer lama mereka , dan akhirnya menghasilkan set instruksimikroprosesor yang kompatibel yang kompatibel dengan perangkat keras dan perangkat lunak sebelumnya. Dikombinasikan dengan kemunculan dan akhirnya kesuksesan komputer pribadi di mana-mana , istilah CPU sekarang diterapkan hampir secara eksklusif ke mikroprosesor. Beberapa CPU (dinotasikan inti ) dapat digabungkan dalam satu chip pemrosesan.
CPU generasi sebelumnya diimplementasikan sebagai komponen diskrit dan sejumlah kecil sirkuit terpadu (IC) pada satu atau lebih papan sirkuit. Mikroprosesor, di sisi lain, adalah CPU yang diproduksi pada sejumlah kecil IC; biasanya hanya satu. Ukuran CPU keseluruhan yang lebih kecil, sebagai hasil dari penerapan pada die tunggal, berarti waktu pergantian yang lebih cepat karena faktor fisik seperti penurunan kapasitansi parasit gate . Ini memungkinkan mikroprosesor sinkron untuk memiliki laju jam mulai dari puluhan megahertz hingga beberapa gigahertz. Selain itu, kemampuan untuk membangun transistor yang sangat kecil pada IC telah meningkatkan kompleksitas dan jumlah transistor dalam satu kali lipat CPU tunggal. Tren yang diamati secara luas ini dijelaskan oleh hukum Moore , yang telah terbukti menjadi prediktor yang cukup akurat dari pertumbuhan kompleksitas CPU (dan IC lainnya) hingga 2016.
Sementara kompleksitas, ukuran, konstruksi, dan bentuk umum CPU telah banyak berubah sejak 1950, desain dan fungsi dasarnya tidak banyak berubah sama sekali. Hampir semua CPU umum saat ini dapat dengan sangat tepat digambarkan sebagai mesin program tersimpan von Neumann. Karena hukum Moore tidak berlaku lagi, muncul kekhawatiran tentang batasan teknologi transistor sirkuit terintegrasi. Miniaturisasi ekstrim gerbang elektronik menyebabkan efek fenomena seperti electromigration dan kebocoran bawah tanah menjadi jauh lebih signifikan. Kekhawatiran yang lebih baru ini adalah di antara banyak faktor yang menyebabkan para peneliti untuk menyelidiki metode komputasi baru seperti komputer kuantum , serta memperluas penggunaan paralelisme dan metode lain yang memperluas kegunaan model von Neumann klasik.
Pengoperasian CPU
Operasi mendasar dari sebagian besar CPU, terlepas dari bentuk fisik yang diambilnya, adalah untuk mengeksekusi urutan instruksi tersimpan yang disebut program. Instruksi yang akan dijalankan disimpan dalam beberapa jenis memori komputer . Hampir semua CPU mengikuti langkah ambil, dekode, dan jalankan dalam operasinya, yang secara kolektif dikenal sebagai siklus instruksi .
Setelah pelaksanaan instruksi, seluruh proses berulang, dengan siklus instruksi berikutnya biasanya mengambil instruksi berikutnya-dalam-urutan karena nilai yang bertambah di penghitung program . Jika instruksi lompatan dieksekusi, penghitung program akan dimodifikasi untuk memuat alamat instruksi yang dilompati dan eksekusi program berlanjut secara normal. Pada CPU yang lebih kompleks, banyak instruksi dapat diambil, diterjemahkan dan dieksekusi secara bersamaan. Bagian ini menjelaskan apa yang umumnya disebut sebagai " pipa RISC klasik ", yang cukup umum di antara CPU sederhana yang digunakan di banyak perangkat elektronik (sering disebut mikrokontroler). Ini sebagian besar mengabaikan peran penting dari cache CPU, dan karenanya tahap akses pipa.
Beberapa instruksi memanipulasi penghitung program alih-alih menghasilkan data hasil secara langsung; instruksi seperti itu umumnya disebut "lompatan" dan memfasilitasi perilaku program seperti loop , pelaksanaan program kondisional (melalui penggunaan lompatan bersyarat), dan adanya fungsi . Dalam beberapa prosesor, beberapa instruksi lain mengubah status bit dalam register "flags". Bendera ini dapat digunakan untuk mempengaruhi bagaimana suatu program berperilaku, karena mereka sering menunjukkan hasil dari berbagai operasi. Sebagai contoh, dalam prosesor tersebut instruksi "bandingkan" mengevaluasi dua nilai dan mengeset atau menghapus bit dalam register flag untuk menunjukkan mana yang lebih besar atau apakah mereka sama; salah satu dari flag ini kemudian dapat digunakan oleh instruksi jump selanjutnya untuk menentukan aliran program.
Mengambil
Langkah pertama, ambil, melibatkan mengambil instruksi (yang diwakili oleh sejumlah atau urutan angka) dari memori program. Lokasi instruksi (alamat) dalam memori program ditentukan oleh penghitung program (PC), yang menyimpan nomor yang mengidentifikasi alamat instruksi berikutnya yang akan diambil. Setelah instruksi diambil, PC bertambah dengan panjang instruksi sehingga akan berisi alamat instruksi berikutnya dalam urutan. Seringkali, instruksi yang akan diambil harus diambil dari memori yang relatif lambat, menyebabkan CPU macet saat menunggu instruksi dikembalikan. Masalah ini sebagian besar dibahas dalam prosesor modern oleh cache dan arsitektur pipa (lihat di bawah).
Membaca sandi
Instruksi yang diambil CPU dari memori menentukan apa yang akan dilakukan CPU. Pada langkah decode, yang dilakukan oleh sirkuit yang dikenal sebagai instruksi decoder , instruksi diubah menjadi sinyal yang mengontrol bagian-bagian lain dari CPU.
Cara instruksi ditafsirkan ditentukan oleh arsitektur set instruksi CPU (ISA). Seringkali, satu kelompok bit (yaitu, "bidang") dalam instruksi, disebut opcode, menunjukkan operasi mana yang harus dilakukan, sedangkan bidang yang tersisa biasanya memberikan informasi tambahan yang diperlukan untuk operasi, seperti operan. Operan tersebut dapat ditentukan sebagai nilai konstan (disebut nilai langsung), atau sebagai lokasi nilai yang mungkin merupakan register prosesor atau alamat memori, sebagaimana ditentukan oleh beberapa mode pengalamatan .
Pada beberapa desain CPU, decoder instruksi diimplementasikan sebagai rangkaian yang tidak dapat diganti dan didesain ulang. Di negara lain, program mikro digunakan untuk menerjemahkan instruksi ke dalam set sinyal konfigurasi CPU yang diterapkan secara berurutan pada beberapa clock clock. Dalam beberapa kasus, memori yang menyimpan mikroprogram dapat ditulis ulang, sehingga memungkinkan untuk mengubah cara CPU mendekode instruksi.
Menjalankan
Setelah langkah ambil dan dekode, langkah eksekusi dilakukan. Tergantung pada arsitektur CPU, ini dapat terdiri dari tindakan tunggal atau urutan tindakan. Selama setiap aksi, berbagai bagian CPU dihubungkan secara elektrik sehingga mereka dapat melakukan semua atau sebagian operasi yang diinginkan dan kemudian tindakan selesai, biasanya sebagai respons terhadap pulsa clock. Sangat sering hasilnya ditulis ke register CPU internal untuk akses cepat dengan instruksi selanjutnya. Dalam kasus lain, hasil mungkin ditulis lebih lambat, tetapi memori utama kapasitas lebih murah dan lebih tinggi .
Misalnya, jika instruksi tambahan akan dieksekusi, input unit logika aritmatika (ALU) terhubung ke sepasang sumber operan (angka yang akan dijumlahkan), ALU dikonfigurasikan untuk melakukan operasi tambahan sehingga jumlah dari nya input operan akan muncul pada outputnya, dan output ALU terhubung ke penyimpanan (mis. register atau memori) yang akan menerima jumlahnya. Ketika pulsa clock terjadi, jumlah akan ditransfer ke penyimpanan dan, jika jumlah yang dihasilkan terlalu besar (yaitu, lebih besar dari ukuran kata output ALU), bendera aritmatika melimpah akan ditetapkan.
CPU VIRTUAL
Host adalah setara virtual mesin fisik, di mana sistem virtual beroperasi. Ketika ada beberapa mesin fisik yang beroperasi bersama-sama dan dikelola secara keseluruhan, sumber daya komputasi dan memori yang dikelompokkan membentuk sebuah cluster . Dalam beberapa sistem, dimungkinkan untuk menambahkan dan menghapus secara dinamis dari sebuah cluster. Sumber daya yang tersedia di tingkat host dan cluster dapat dipartisi menjadi kumpulan sumber daya dengan granularity halus .
Performa CPU
The kinerja atau kecepatan prosesor tergantung pada, di antara banyak faktor lainnya, clock rate (umumnya diberikan dalam kelipatan hertz ) dan petunjuk per jam (IPC), yang bersama-sama merupakan faktor untuk instruksi per detik (IPS) bahwa CPU dapat bekerja. Banyak nilai IPS yang dilaporkan telah mewakili tingkat eksekusi "puncak" pada urutan instruksi buatan dengan beberapa cabang, sedangkan beban kerja yang realistis terdiri dari campuran instruksi dan aplikasi, beberapa di antaranya membutuhkan waktu lebih lama untuk dieksekusi daripada yang lain. Kinerja hierarki memorijuga sangat mempengaruhi kinerja prosesor, masalah yang hampir tidak dipertimbangkan dalam perhitungan MIPS. Karena masalah-masalah ini, berbagai tes standar, sering disebut "tolok ukur" untuk tujuan ini sepertiSPECint telah dikembangkan untuk mencoba mengukur kinerja efektif nyata dalam aplikasi yang biasa digunakan.
Memproses kinerja komputer ditingkatkan dengan menggunakan prosesor multi-core , yang pada dasarnya adalah memasukkan dua atau lebih prosesor individu (disebut core dalam pengertian ini) ke dalam satu sirkuit terintegrasi. Idealnya, prosesor inti ganda hampir dua kali lebih kuat dari prosesor inti tunggal. Dalam praktiknya, peningkatan kinerja jauh lebih kecil, hanya sekitar 50%, karena algoritma dan implementasi perangkat lunak tidak sempurna. Meningkatkan jumlah core dalam prosesor (yaitu dual-core, quad-core, dll) meningkatkan beban kerja yang dapat ditangani. Ini berarti bahwa prosesor sekarang dapat menangani berbagai peristiwa yang tidak sinkron, interupsi, dll. Yang dapat berdampak buruk pada CPU saat kewalahan. Inti ini dapat dianggap sebagai lantai yang berbeda di pabrik pemrosesan, dengan masing-masing lantai menangani tugas yang berbeda. Terkadang, inti ini akan menangani tugas yang sama dengan inti yang berdekatan dengannya jika satu inti tidak cukup untuk menangani informasi.
Karena kemampuan spesifik CPU modern, seperti multithreading dan uncore secara simultan , yang melibatkan pembagian sumber daya CPU yang sebenarnya sambil bertujuan meningkatkan pemanfaatan, pemantauan tingkat kinerja dan penggunaan perangkat keras secara bertahap menjadi tugas yang lebih kompleks. Sebagai tanggapan, beberapa CPU menerapkan logika perangkat keras tambahan yang memantau penggunaan aktual berbagai bagian CPU dan menyediakan berbagai penghitung yang dapat diakses oleh perangkat lunak; contohnya adalah teknologi Monitor Penghitung Kinerja Intel .
RYTECH SITI


Post a Comment for "Pengertian CPU"