1.
ARSITEKTUR MANUSIA
Menurut
William Stalling arsitektur komputer berkaitan dengan atribut-atribut yang
mempunyai dampak langsung pada eksekusi logis sebuah program. Contohnya adalah
seperti set Instruksi, jumlah bit yang digunakan untuk penyajian data, mekanisme
I/O,
teknik pengalamantan (addressing techniques).
Abstraksi dari sebuah arsitektur komputer dan hubungannya dengan
bagian perangkat keras, firmware, assembler, kernel, sistem operasi, dan perangkat
lunak aplikasinya. Dalam bidang teknik
komputer, arsitektur komputer adalah konsep perencanaan dan struktur
pengoperasian dasar dari suatu sistem komputer.
Arsitektur komputer ini merupakan rencana
cetak-biru dan deskripsi fungsional dari
kebutuhan bagian perangkat keras yang didesain
(kecepatan proses dan sistem interkoneksinya). Dalam
hal ini, implementasi perencanaan dari masing– masing
bagian akan lebih difokuskan terutama, mengenai bagaimana
CPU akan bekerja, dan mengenai cara pengaksesan
data dan alamat dari dan ke memori cache, RAM,
ROM, cakram keras, dll). Beberapa contoh dari arsitektur
komputer ini adalah arsitektur von Neumann, CISC,
RISC, blue Gene, dll. Arsitektur komputer juga dapat didefinisikan dan dikategorikan sebagai ilmu dan sekaligus seni mengenai cara interkoneksi
komponen komponen perangkat keras untuk dapat menciptakan sebuah komputer yang
memenuhi kebutuhan fungsional, kinerja, dan
target biayanya.
Arsitektur komputer ini paling
tidak mengandung 3 sub-kategori:
Ø Set
instruksi (ISA)
Ø Arsitektur
mikro dari ISA, dan
Ø Sistem
desain dari seluruh komponen dalam perangkat keras komputer ini
Set Instruksi –ISA
ISA (bahasa
Inggris: Instruction Set, atau Instruction Set Architecture (ISA))
didefinisikan sebagai suatu aspek dalam arsitektur komputer yang dapat dilihat
oleh para pemrogram. Secara umum, ISA ini mencakup jenis data yang didukung,
jenis instruksi yang dipakai, jenis register, mode pengalamatan, arsitektur
memori, penanganan interupsi, eksepsi, dan operasi I/O eksternalnya (jika ada).
ISA merupakan sebuah spesifikasi dari kumpulan semua kode-kode biner (opcode)
yang diimplementasikan dalam bentuk aslinya (native form) dalam sebuah
desain prosesor tertentu. Kumpulan opcode tersebut, umumnya disebut
sebagai bahasa mesin (machine language) untuk ISA yang
bersangkutan. ISA yang populer digunakan adalah set instruksi untuk chip Intel
x86, IA-64, IBM PowerPC, Motorola 68000, Sun SPARC, DEC Alpha, dan lain-lain.
ISA kadang-kadang digunakan untuk membedakan kumpulan karakteristik yang
disebut di atas dengan mikroarsitektur prosesor, yang merupakan kumpulan teknik
desain prosesor untuk mengimplementasikan set instruksi (mencakup microcode,
pipeline, sistem cache, manajemen daya, dan lainnya).
Komputer-komputer dengan mikroarsitektur berbeda dapat saling berbagi set
instruksi yang sama.
Sebagai
contoh, prosesor Intel Pentium dan prosesor AMD Athlon mengimplementasikan
versi yang hampir identik dari set instruksi Intel x86, tetapi jika ditinjau
dari desain internalnya, perbedaannya sangat radikal. Konsep ini dapat
diperluas untuk ISA-ISA yang unik seperti TIMI yang terdapat dalam IBM
System/38 dan IBM IAS/400. TIMI merupakan sebuah ISA yang diimplementasikan
sebagai perangkat lunak level rendah yang berfungsi sebagai mesin virtual. TIMI
didesain untuk meningkatkan masa hidup sebuah platform dan aplikasi yang
ditulis untuknya, sehingga mengizinkan platform tersebut agar dapat dipindahkan
ke perangkat keras yang sama sekali berbeda tanpa harus memodifikasi perangkat
lunak (kecuali yang berkaitan dengan TIMI). Hal ini membuat IBM dapat
memindahkan platform AS/400 dari arsitektur mikroprosesor CISC ke arsitektur
mikroprosesor POWER tanpa harus menulis ulang bagian-bagian dari dalam sistem
operasi atau perangkat lunak yang
diasosiasikan dengannya.
Ketika mendesain mikroarsitektur, para desainer menggunakan Register Transfer
Language (RTL) untuk mendefinisikan operasi dari setiap instruksi yang terdapat
dalam ISA. Sebuah ISA juga dapat diemulasikan dalam bentuk perangkat lunak oleh
sebuah interpreter. Karena terjadi translasi tambahan yang dibutuhkan untuk
melakukan emulasi, hal ini memang menjadikannya lebih lambat jika dibandingkan
dengan menjalankan program secara langsung di atas perangkat keras yang mengimplementasikan
ISA tersebut.
Akhir-akhir
ini, banyak vendor ISA atau mikroarsitektur yang baru membuat perangkat lunak
emulator yang dapat digunakan oleh para pengembang perangkat lunak sebelum
implementasi dalam bentuk
perangkat keras dirilis oleh
vendor. Daftar ISA di bawah ini tidak dapat dikatakan komprehensif, mengingat
banyaknya arsitektur lama yang tidak digunakan lagi saat ini atau adanya ISA
yang baru dibuat oleh para desainer.
ISA yang diimplementasikan
dalam bentuk perangkat keras:
Ø Alpha
AXP (DEC Alpha)
Ø ARM
(Acorn RISC Machine) (Advanced RISC Machine now ARM Ltd)
Ø IA-64
(Itanium/Itanium 2)
Ø MIPS
Ø Motorola
68k
Ø PA-RISC
(HP Precision Architecture)
Ø IBM
POWER
Ø IBM
PowerPC
Ø SPARC
Ø SuperH (Hitachi)
Ø System/360
Ø Tricore
(Infineon)
Ø Transputer
(STMicroelectronics)
Ø VAX
(Digital Equipment Corporation)
Ø x86
(IA-32, Pentium, Athlon) (AMD64, EM64T)
ISA yang diimplementasikan
dalam bentuk perangkat lunak lalu dibuat perangkat kerasnya:
Ø p-Code
(UCSD p-System Version III on Western Digital Pascal Micro-Engine)
Ø Java virtual machine (ARM Jazelle, PicoJava)
Ø FORTH
ISA yang tidak pernah
diimplementasikan dalam bentuk perangkat keras:
Ø SECD
machine
Ø ALGOL
Object Code
Arsitektur
von Neumann
(Mesin
Von Neumann) adalah arsitektur yang diciptakan oleh John von Neumann
(1903-1957).
Arsitektur ini digunakan
oleh hampir semua komputer saat ini. Arsitektur
Von Neumann menggambarkan komputer dengan empat bagian utama: Unit Aritmatika dan Logis (ALU), unit kontrol, memori, dan alat
masukan dan hasil (secara kolektif dinamakan
I/O). Bagian ini dihubungkan oleh berkas kawat, “bus”.
Arsitektur Von Neuman
Von
Neumann diabadikan namanya sebagai arsitektur von Neumann, yaitu arsitektur
komputer yang banyak digunakan di sebagian besar sistem komputer non paralel,
karena dialah yang pertama kali mempublikasikan konsep tersebut. Meski konsep
ini kemudian dikembangkan oleh J. Presper Eckert dan John William Mauchly dalam
pengembangan komputer ENIAC, nama von Neumann lah yang lebih dikenal sebagai
penemu arsitektur komputer tersebut. John von Neumann pada tahun 1940-an.
John
von Neumann (Neumann János) (lahir di Budapest,
Hungaria, 28 Desember 1903–meninggal di Washington DC, Amerika Serikat, 8
Februari 1957 pada umur 53 tahun) adalah seorang matematikawan dari Hungaria-Jerman
yang memberikan kontribusi penting di bidang fisika kuantum, analisis
fungsional, teori himpunan, ilmu komputer, ekonomi dan bidang lainnya yang
berkaitan dengan matematika. Von Neumann adalah pionir komputer digital modern
dan penerapan teori operator di bidang mekanika kuantum.
A. CISC
Complex
instruction-set computing atau Complex
Instruction-Set Computer (CISC;
"Kumpulan
instruksi komputasi kompleks") adalah sebuah arsitektur dari set instruksi
dimana setiap instruksi akan menjalankan beberapa operasi tingkat rendah,
seperti pengambilan dari memory, operasi aritmetika, dan penyimpanan ke dalam
memory, semuanya sekaligus hanya di dalam sebuah instruksi. Karakteristik CISC
dapat dikatakan bertolak-belakang dengan RISC. Sebelum proses RISC didesain
untuk pertama kalinya, banyak arsitek komputer mencoba menjembatani celah
semantik", yaitu bagaimana cara untuk membuat set-set instruksi untuk
mempermudah pemrograman level tinggi dengan menyediakan instruksi "level
tinggi" seperti pemanggilan prosedur, proses pengulangan dan mode-mode
pengalamatan kompleks sehingga struktur data dan akses array dapat
dikombinasikan dengan sebuah instruksi. Karakteristik CISC yg "sarat
informasi" ini memberikan keuntungan di mana ukuran programprogram yang dihasilkan
akan menjadi relatif lebih kecil, dan penggunaan memory akan semakin berkurang.
Karena CISC inilah biaya pembuatan komputer pada saat itu (tahun 1960) menjadi
jauh lebih hemat. Memang setelah itu banyak desain yang memberikan hasil yang
lebih baik dengan biaya yang lebih rendah, dan juga mengakibatkan pemrograman
level tinggi menjadi lebih sederhana, tetapi pada kenyataannya tidaklah selalu
demikian. Contohnya, arsitektur kompleks yang didesain dengan kurang baik (yang
menggunakan kode-kode mikro untuk mengakses fungsi-fungsi hardware), akan
berada pada situasi di mana akan lebih mudah untuk meningkatkan performansi
dengan tidak menggunakan instruksi yang kompleks (seperti instruksi pemanggilan
procedure), tetapi dengan menggunakan urutan instruksi yang sederhana. Satu
alasan mengenai hal ini adalah karena set-set instruksi level-tinggi, yang
sering disandikan (untuk kode-kode yang kompleks), akan menjadi cukup sulit
untuk diterjemahkan kembali dan dijalankan secara efektif dengan jumlah
transistor yang terbatas. Oleh karena itu arsitektur arsitektur ini memerlukan
penanganan yang lebih terfokus pada desain prosesor.
Pada
saat itu di mana jumlah transistor cukup terbatas, mengakibatkan semakin sempitnya
peluang ditemukannya cara-cara alternatif untuk optimisasi perkembangan
prosesor. Oleh karena itulah, pemikiran untuk menggunakan desain RISC muncul
pada pertengahan tahun 1970 (Pusat Penelitian Watson IBM 801 - IBMs)
Contoh-contoh
prosesor CISC adalah System/360, VAX, PDP-11, varian Motorola 68000, dan CPU
AMD dan Intel x86. Istilah RISC dan CISC saat ini kurang dikenal, setelah
melihat perkembangan lebih lanjut dari desain dan implementasi baik CISC dan
CISC. Implementasi CISC paralel untuk pertama kalinya, seperti 486 dari Intel,
AMD, Cyrix, dan IBM telah mendukung setiap instruksi yang digunakan oleh
prosesor-prosesor sebelumnya, meskipun efisiensi tertingginya hanya saat
digunakan pada subset x86 yang sederhana (mirip dengan set instruksi RISC, tetapi
tanpa batasan penyimpanan/pengambilan data dari RISC). Prosesor-prosesor modern
x86 juga telah menyandikan dan membagi lebih banyak lagi instruksi-instruksi
kompleks menjadi beberapa "operasi-mikro" internal yang lebih kecil
sehingga dapat instruksi-instruksi tersebut dapat dilakukan secara paralel,
sehingga mencapai performansi tinggi pada subset instruksi yang lebih besar.
B. RISC
Reduced
Instruction Set Computing (RISC) atau "Komputasi set
instruksi yang disederhanakan" pertama kali digagas oleh John Cocke,
peneliti dari IBM di Yorktown, New York pada tahun 1974 saat ia membuktikan
bahwa sekitar 20% instruksi pada sebuah prosesor ternyata menangani sekitar 80%
dari keseluruhan kerjanya. Komputer pertama yang menggunakan konsep RISC ini
adalah IBM PC/XT pada era 1980-an. Istilah RISC sendiri pertama kali
dipopulerkan oleh David Patterson, pengajar pada University of California di
Berkely Definisi RISC, yang jika diterjemahkan berarti "Komputasi Kumpulan
Instruksi yang Disederhanakan", merupakan sebuah arsitektur komputer atau
arsitektur komputasi modern dengan instruksiinstruksi dan jenis eksekusi yang
paling sederhana. Arsitektur ini digunakan pada komputer dengan kinerja tinggi,
seperti komputer vektor. Selain digunakan dalam komputer vektor, desain ini
juga diimplementasikan pada prosesor komputer lain, seperti pada beberapa
mikroprosesor Intel 960, Itanium (IA64) dari Intel Corporation, Alpha AXP dari
DEC, R4x00 dari MIPS Corporation, PowerPC dan Arsitektur POWER dari
International Business Machine. Selain itu, RISC juga umum dipakai pada
Advanced RISC Machine (ARM) dan StrongARM (termasuk di antaranya adalah Intel
XScale), SPARC dan UltraSPARC dari Sun Microsystems, serta PARISC dari
Hewlett-Packard. Selain RISC, desain Central Processing Unit yang lain
adalah CISC (Complex Instruction Set Computing), yang jika
diterjemahkan ke dalam Bahasa Indonesia berarti Komputasi Kumpulan Instruksi
yang kompleks atau rumit.
Blue
Gene
Blue Gene/L
Blue
Gene adalah sebuah arsitektur komputer yang dirancang untuk menciptakan
beberapa superkomputer generasi berikut, yang dirancang untuk mencapai
kecepatan operasi petaflop (1 peta = 10 pangkat 15), dan pada 2005 telah
mencapai kecepatan lebih dari 100 teraflop (1 tera = 10 pangkat 12). Blue Gene
merupakan proyek antara Departemen Energi Amerika Serikat (yang membiayai
projek ini),
industri (terutama IBM), dan kalangan akademi. Ada
lima projek Blue Gene dalam pengembangan saat
ini, di antaranya adalah Blue Gene/L, Blue Gene/C, dan Blue Gene/P.
Blue
Gene/L
Arsitektur
Blue Gene/L Komputer pertama dalam seri Blue Gene. Blue Gene/L dikembangkan
melalui sebuah "partnership" dengan
Lawrence Livermore National Laboratory
menghabiskan biaya AS$100 juta dan
direncanakan dapat mencapai kecepatan ratusan
TFLOPS, dengan kecepatan puncak teoritis 360 TFLOPS. Ini hampir sepuluh kali lebih cepat dari Earth Simulator,
superkomputer tercepat di dunia sebelum Blue Gene.
Pada
Juni 2004, dua prototipe Blue Gene/L masuk dalam peringkat 500 besar superkomputer berada dalam posisi ke-4 dan ke-8. Pada 29 September 2004 IBM mengumumkan bahwa sebuah
prototipe Blue Gene/L di IBM Rochester
(Minnesota) telah menyusul Earth Simulator NEC sebagai komputer tercepat di
dunia, dengan kecepatan 36,01 TFLOPS, mengalahkan
Earth Simulator yang memiliki kecepatan 35,86
TFLOPS. Mesin ini kemudian mencapai kecepatan 70,72 TFLOPS. Pada 24 Maret 2005, Departemen Energi AS mengumumkan bahwa
Blue Gene/L memecahkan rekor komputer tercepat mencapai 135,5 TFLOPS. Hal ini
dimungkinkan karena menambah jumlah rak menjadi 32 dengan setiap rak berisi
1.024 node komputasi. Ini masih merupakan setengah dari konfigurasi final yang
direncanakan mencapai 65.536 node. Rekor komputer tercepat mencapai 135,5
TFLOPS. Hal ini dimungkinkan karena menambah jumlah rak menjadi 32 dengan setiap
rak berisi 1.024 node komputasi. Ini masih merupakan setengah dari konfigurasi
final yang direncanakan mencapai 65.536 node. Pada 27 Oktober, 2005, Lawrence
Livermore National Laboratory dan IBM mengumumkan bahwa Blue Gene/L sekali lagi
telah menciptakan rekor dengan mengalahkan rekornya sendiri setelah mencapai
kecepatan 280.6 TFLOPS.
2. STRUKTUR KOGNISI MANUSIA
Kata kognisi berasal dari Istilah Latin: cognoscere,
“tahu”, “untuk konsep” atau “mengenali” mengacu pada kegiatan untuk memproses
informasi, menerapkan pengetahuan, dan perubahan preferensi. Kemudian kognisi
dapat didefinisikan sebagai proses bagaimana manusia melihat, mengingat,
belajar dan berpikir tentang informasi. Penggunaan istilah bervariasi di
berbagai disiplin ilmu, misalnya dalam psikologi dan ilmu kognitif, biasanya
mengacu pada pandangan pengolahan informasi fungsi psikologis individu. Selain
itu, ada definisi lain tentang kognisi yaitu kognisi adalah sesuatu yang
dipercaya dapat mempengaruhi sikap kemudian mempengaruhi perilaku atau tindakan
mereka terhadap sesuatu, Kemudian berkembang menjadi kepercayaan seseorang
tentang sesuatu yang didapatkan dari proses berpikir tentang seseorang atau sesuatu.
Proses yang dilakukan adalah memperoleh pengetahuan dan memanipulasi
pengetahuan melalui aktivitas mengingat, menganalisis, memahami, menilai,
menalar, membayangkan dan berbahasa. Kapasitas atau kemampuan kognisi biasa
diartikan sebagai kecerdasan atau inteligensi. Bidang ilmu yang mempelajari
kognisi beragam, di antaranya
adalahpsikologi, filsafat, komunikasi, neurosains,
serta kecerdasan buatan.
Kognisi, atau proses kognitif, bisa alami atau buatan, sadar
atau tidak sadar. Proses ini dianalisis dari perspektif yang berbeda dalam
konteks yang berbeda, terutama di bidang linguistik, anestesi, neurologi,
psikologi, filsafat, antropologi, systemics, ilmu komputer dan keyakinan. Dalam
psikologi atau filsafat, konsep kognisi terkait erat dengan konsep-konsep
abstrak seperti pikiran, kecerdasan, kognisi digunakan untuk merujuk pada
fungsi mental, proses mental (pikiran) dan negara-negara entitas cerdas
(manusia, organisasi manusia, mesin yang sangat otonom dan buatan kecerdasan).
Fungsi-fungsi kognitif
Ø Atensi dan kesadaran
Atensi adalah pemrosesan secara sadar sejumlah
kecil informasi dari sejumlah besar informasi yang tersedia.
Informasi didapatkan dari penginderaan, ingatan dan proses kognitif
lainnya. Atensi terbagi menjadi atensi terpilih (selective attention)dan
atensi terbagi (divided attention). Kesadaran meliputi
perasaan sadar maupun hal yang disadari yang mungkin merupakan fokus dari
atensi.
Ø Persepsi
Persepsi adalah rangkaian proses pada saat mengenali,
mengatur dan memahami sensasi dari panca indera yang diterima dari rangsang
lingkungan. Dalam kognisi rangsang visual memegang peranan penting dalam
membentuk persepsi. Proses kognif biasanya dimulai dari persepsi yang
menyediakan data untuk diolah oleh kognisi.
Ø Ingatan
Ingatan adalah saat manusia mempertahankan dan
menggambarkan pengalaman masa lalunya dan menggunakan hal tersebut sebagai
sumber informasi saat ini. Proses dari mengingat adalah menyimpan suatu
informasi, mempertahankan dan memanggil kembali informasi tersebut. Ingatan
terbagi dua menjadi ingatan implisit dan eksplisit. Proses tradisional dari
mengingat melalui pendataan penginderaan, ingatan jangka pendek dan ingatan
jangka panjang.
Ø Bahasa
Bahasa adalah menggunakan pemahaman terhadap kombinasi
kata dengan tujuan untuk berkomunikasi. Adanya bahasa membantu manusia untuk
berkomunikasi dan menggunakan simbol untuk berpikir hal-hal yang abstrak dan
tidak diperoleh melalui penginderaan. Dalam mempelajari interaksi pemikiran
manusia dan bahasa dikembangkanlah cabang ilmu psikolinguistik
Ø Pemecahan masalah dan kreativitas
Pemecahan masalah adalah upaya untuk mengatasi hambatan
yang menghalangi terselesaikannya suatu masalah atau tugas. Upaya ini
melibatkan proses kreativitas yang menghasilkan suatu jalan
penyelesaian masalah yang orisinil dan berguna.
Sumber:
- jnursyamsi.staff.gunadarma.ac.id/.../MSIM2+Arsitektur+Komputer.pdf (diakses pada tanggal 06 Oktober 2014).
- http://4jipurnomo.wordpress.com/hubungan-arsitektur-komputer-dan-kognisi-manusia/ (diakses pada tanggal 06 Oktober 2014).
- Solso, Robert L., Maclin, Otto H., Maclin, M. Kimberlyn. (2008). Psikologi kognitif. Jakarta: Erlangga.
Tidak ada komentar:
Posting Komentar