RSS

Sejarah Super Lengkap INTERNET & Penemu Internet

sejarah internet dan penemu internet

Sebuah rekaman tulisan yang menerangkan bahwa interaksi sosial dapat  dilakukan juga melalui sebuah jaringan komputer terdapat pada seri  memo yang ditulis oleh J.C.R. Licklider dari  MIT (Massachuset Institut of Technology) pada bulan Agustus tahun 1962. Dalam memo tersebut diuraikan konsep “Galactic Network”nya. Dia memiliki visi sebuah jaringan komputer global yang saling berhubungan dimana setiap orang dapat akses data dan program secara cepat dari tempat manapun. Semangat konsep tersebut sangat sesuai seperti internet yang ada sekarang. Licklider adalah pimpinan pertama riset program komputer dari projek DARPA, 4 yang dimulai bulan Oktober 1962. Selama di  DARPA dia bekerjasama dengan Ivan Sutherland, Bob Taylor, dan seorang peneliti MIT,  Lawrence G. Roberts. Leonard Kleinrock di MIT mempublikasikan tulisanya berjudul ” The first paper on packet switching theory”  dalam  bulan July 1961 dan “The first book on the subject” di tahun 1964. Kleinrock sepaham dengan Roberts dalam teori kelayakan komunikasi mempergunakan sistem paket data dari pada hanya mempergunakan sebuah rangkaian elektronik.  Teori ini merupakan cikal bakal adanya jaringan komputer. Langkah penting lainnnya adalah membuat komputer dapat berkomunikasi secara bersama-sama. Untuk mmebuktikan hal ini, pada tahun 1965, Roberts bekerjasama dengan Thomas Merrill,  menghubungkan komputer TX-2 yang ada di Mass dengan komputer Q-32 yang ada di  California dengan mempergunakan sebuah saluran dial-up berkecepatan rendah. Ini merupakan sebuahjaringan komputer pertama  yang luas yang pernah dibuat untuk pertama kalinya meski dalam skala kecil.

  Hasil dari  percubaan ini  adalah bukti bahawa pengunaan waktu dalam komputer-komputer tersebut dapat bekerja dengan baik, menjalankan program dan mengambil atau  mengedit data  seperti yang biasa dilakukan pada sebuah mesin dengan  remote control, namun rangkaian saklar system telepon kurang mendukung percobaan ini. Hipotesis  Kleinrock tentang diperlukannya sebuah program paket pensaklaran terbukti.

Pada tahun 1966 Roberts pergi ke DARPA untuk mengembangkan konsep jaringan komputer dan dengan cepat merumuskan rencananya untuk ARPANET, yang dipublikasikan pada tahun 1967.  Pada saat konferensi dimana dia harus mempresentasikan makalahnya tentang konsep paket dalam jaringan komputer, dalam konferensi tersebut juga ada sebuah makalah yang berhubungan dengan konsep paket pada jaringan komputer dari Inggris yang ditulis oleh Donald Davies dan Roger Scantlebury dari NPL. Scantlebury mengatakan pada Roberts tentang riset yang dilakukan  NPL sebaik seperti yang dilakukan oleh Paul Baran dan lainnya di RAND. RAND group telah menulis sebuah makalah berjudul ” paper on packet switching networks for secure voice” di lingkungan militer pada tahun 1964. Penelitian-penelitian tersebut dilakukan bersamaan oleh kelompok peneliti MIT, NPL dan RAND. Sedangkan para penelitinya tidak mengetahui apa yang dilakukan oleh kelompok peneliti lainnya. Kelompok peneliti MIT bekerja dalam kurun waktu 1961-1967, kelompok RAND bekerja dalam kurun waktu 1962-1965, dan kelompok NPL bekerja  antara tahun 1964-1967. Kata paket telah diadopsi dari hasil kerja kelompok NPL dan diusulkan dipergunakan dalam  saluran komunikasi data ARPANET, sehingga komunikasi data di dalam projek ini diubah dari 2.4 kbps menjadi 50  kbps. 

Dalam bulan Agustus tahun 1968, setelah Roberts dan penyandang dana projek  DARPA merevisi semua struktur dan spesifikasi ARPANET, sebuah RFQ dirilis  DARPA untuk pengembangan salah satu komponen kunci, paket  pensakalaran yang disebut Interface Message Processors (IMP’s). RFQ telah dimenangkan dalam bulan Desember1968 oleh sebuah group yang dipimpin oleh Frank Heart dari Bolt Beranek and Newman (BBN). Sebagai tim dari BBN yang mengerjakan  IMP’s, Bob Kahn memerankan peran utama dalam desain arsitektur  ARPANET.    Topologi dan ekonomi jaringan didesain dan dioptimasi oleh  Roberts bersama Howard Frank dan timnya dari Network Analysis Corporation. . Pengukuran  sistem jaringan dilakukan oleh tim pimpinan  Kleinrock di UCLA. 6 Karena awal dilakukannya pengembangan teori paket  pensaklaran oleh Kleinrock, dan juga adanya perhatiannya yang serius pada analysis, design dan pengukuran, maka Network Measurement Center yang dibangun Kleinrock di UCLA telah terpilih sebagai node pertama projek ARPANET. Ini terjadi dalam bulan September tahun 1969 ketika  BBN memasang IMP pertama di UCLA dan host komputer pertama telah tersambung. Projek Doug Engelbart yang   menggarap “Augmentation of Human Intellect” (didalamnya terdapat NLS, sebuah system hypertext pertama) di Stanford Research Institute (SRI) kemudian dikembangkan menjadi node kedua. SRI mendukung  Network Information Center,  dipimpin oleh Elizabeth (Jake) Feinler dan berperan sebagai pemelihara table nama host ke address mapping sesuai dengan direktori  RFC’s. Sebulan kemudian, pada saat SRI telah tersambung ke ARPANET, pesan pertama dari host ke host telah dikirimkan dari laboratorium Kleinrock ke SRI. Dua node lainnya segera dibangun di  UC Santa Barbara dan University of Utah. Dua node terakhir ini membuat projek aplikasi visual, dengan Glen Culler dan Burton Fried di UCSB bertugas mencari metoda-metoda untuk menampilkan fungsi-fungsi matematika mempergunakan “storage displays” agar dapat menjawab “problem of refresh” yang terjadi dalam jaringan.

Robert Taylor dan Ivan Sutherland di Utah bertugas  mencari metoda-metoda penampilan 3-D dalam jaringan. Sehingga pada akhir tahun 1969, empat komputer host telah tergabung bersama dalam inisial ARPANET, maka cikal bakal Internet telah lahir.

Komputer banyak yang disambungkan ke ARPANET pada tahun-tahun  berikutnya dan tim bekerja melengkapi fungsi Host-to-Host protocol dan software jaringan komputer lainnya. Di bulan Desember tahun 1970, the Network Working Group (NWG) bekerja dibawah pimpinan S. Crocker menyelesaikan inisial ARPANET Host-to-Host protocol, dan disebut  Network Control Protocol (NCP). ARPANET secara lengkap mempergunakan NCP  selama periode 1971-1972 dan para pengguna jaringan komputer akhirnya dapat mulai melakukan pengembangan  aplikasinya.  Dalam bulan Oktober tahun 1972, Kahn telah mengorganisasikan sebuah demonstrasi besar dan sukses  ARPANET di International Computer Communication Conference (ICCC).

Ini merupakan untuk pertama kalinya diperkenalkan  ke masyarakat. Dalam demo ini juga diperkenalkan inisial “hot” aplication, electronic mail (email). Dalam bulan Maret, Ray Tomlinson dari BBN membuat program penulisan pesan email, pengiriman dan  pembaca pesan email pertama. Hal ini dilakukan atas dorongan kebutuhan ARPANET akan sebuah mekanisme koordinasi yang mudah. Dalam bulan July, Roberts mengembangkan utilitynya dengan membuat program email utility pertama ke dalam daftar, pemilihan untuk pembacaan, file, meneruskan (forward), dan memberikan jawaban sebuah pesan. Dari   penemuan ini maka email merupakan aplikasi yang paling banyak dipergunakan dalam jaringan komputer selama beberapa dekade.

Internet merupakan jaringan komputer yang dibentuk oleh Departemen Pertahanan Amerika Serikat di tahun 1969, melalui proyek ARPA yang disebut ARPANET (Advanced Research Project Agency Network), di mana mereka mendemonstrasikan bagaimana dengan hardware dan software komputer yang berbasis UNIX, kita bisa melakukan komunikasi dalam jarak yang tidak terhingga melalui saluran telepon.

Proyek ARPANET merancang bentuk jaringan, kehandalan, seberapa besar informasi dapat dipindahkan, dan akhirnya semua standar yang mereka tentukan menjadi cikal bakal pembangunan protokol baru yang sekarang dikenal sebagai TCP/IP (Transmission Control Protocol/Internet Protocol).

Tujuan awal dibangunnya proyek itu adalah untuk keperluan militer. Pada saat itu Departemen Pertahanan Amerika Serikat (US Department of Defense) membuat sistem jaringan komputer yang tersebar dengan menghubungkan komputer di daerah-daerah vital untuk mengatasi masalah bila terjadi serangan nuklir dan untuk menghindari terjadinya informasi terpusat, yang apabila terjadi perang dapat mudah dihancurkan.

Pada mulanya ARPANET hanya menghubungkan 4 situs saja yaitu Stanford Research Institute, University of California, Santa Barbara, University of Utah, di mana mereka membentuk satu jaringan terpadu di tahun 1969, dan secara umum ARPANET diperkenalkan pada bulan Oktober 1972. Tidak lama kemudian proyek ini berkembang pesat di seluruh daerah, dan semua universitas di negara tersebut ingin bergabung, sehingga membuat ARPANET kesulitan untuk mengaturnya.

Oleh sebab itu ARPANET dipecah manjadi dua, yaitu “MILNET” untuk keperluan militer dan “ARPANET” baru yang lebih kecil untuk keperluan non-militer seperti, universitas-universitas. Gabungan kedua jaringan akhirnya dikenal dengan nama DARPA Internet, yang kemudian disederhanakan menjadi Internet.


 
Tinggalkan komentar

Ditulis oleh pada November 5, 2011 in Uncategorized

 

Review Journal – Teknologi Komputasi dalam Pembelajaran Matematika

Oleh :

Rocky DNVS 56411427 / 4IA16

Raditya Fajar 55411739 / 4IA16

Yerni  Euodia 57411507 / 4IA16

OLYMPUS DIGITAL CAMERAIlmu komputasi adalah bidang ilmu yang mempunyai perhatian pada penyusunan model matematika dan teknik penyelesaian numerik serta penggunaan komputer untuk menganalisis dan memecahkan masalah-masalah ilmu (sains). Komputasi juga bisa diartikan sebagai cara untuk menemukan pemecahan masalah dari data input dengan menggunakan suatu algoritma. Komputasi merupakan suatu sub-bidang dari ilmu komputer dan matematika. Komputasi menggabungkan antara dua komponen ilmu yang berbeda, yaitu komputer dan matematika. Ilmu ini digunakan untuk menerapkan teori matematika ke dalam aplikasi komputer.

Tujuan belajar matematika berdasarkan kurikulum 1975, 1984, 1994, dan KBK adalah sama, yakni agar peserta didik mampu menggunakan atau menerapkan matematika yang dipelajari dalam kehidupan sehari-hari. Dengan belajar matematika diharapkan pula diperoleh kemampuan bernalar pada diri peserta didik yang tercermin melalui kemampuan peserta didik berfikir kritis, logis, sisematis, dan memiliki sifat objektif, jujur, dan disiplin, dalam memecahkan suatu permasalahan baik dalam bidang matematika, bidang lain atau dalam kehidupan sehari-hari.

Robert M. Gagne (dalam Soedjadi, 2001: 16) mengemukakan bahwa suatu klasifikasi objek yang dipelajari dalam matematika, secara garis besar dibedakan atas objek-objek langsung (direct objects) dan objek-objek tak langsung (inderect objects). Objek-objek langsung dari pembelajaran matematika terdiri atas fakta-fakta matematika, keterampilan-keterampilan (prosedur-prosedur) matematika, konsep-konsep matematika, dan prinsip-prinsip matematika. Objek-objek tak langsung dari pembelajaran matematika meliputi kemampuan berpikir logis, kemampuan memecahkan masalah, kemampuan berpikir analitis, sikap positif terhadap matematika, ketelitian, ketekunan, kedisiplinan, dan hal-hal lain yang secara implisit akan dipelajari jika peserta didik mempelajari matematika. Bagi kebanyakan peserta didik, belajar matematika merupakan beban berat, tidak menarik dan membosankan, sehingga peserta didik kurang termotivasi, cepat bosan, dan lelah.
Pemanfaatan teknologi elektronik dalam pembelajaran memberi penguatan terhadap pola perubahan paradigma pembelajaran. Penggunaan teknologi informasi dan multimedia menjadi salah satu cara yang efektif dan efisien dalam menyampaikan informasi kepada peserta didik  dan memiliki potensi besar untuk meningkatkan kualitas pembelajaran, khususnya dalam pembelajaran matematika. Latihan dan percobaan-percobaan eksploratif matematika dapat dilakukan peserta didik dengan menggunakan program-program sederhana untuk penanaman dan penguatan konsep, membuat permodelan matematika, dan menyusun strategi dalam memecahkan masalah.

Dalam kegiatan latihan, komputer memberikan soal-soal mengenai suatu topik untuk dipecahkan oleh peserta didik dan memberikan umpan balik berdasarkan respon peserta didik tersebut. Jika pelatihan ini dijalankan dengan baik, maka akan terjadi interaksi yang baik antara komputer dengan peserta didik. Kegiatan pelatihan ini dimaksudkan untuk mengajarkan informasi baru mengenai suatu topik pelajaran. Jadi proses pengajaran akan berkembang secara lebih efektif dan efisien menuju ke suatu tujuan yang lebih jelas.

Permainan dapat berfungsi sebagai penyaji bahan pelajaran baru atau juga sebagai penguat terhadap pelajaran yang telah diperoleh peserta didik melalui kegiatan lain. Dalam simulasi permainan, komputer menyediakan simulasi atau model suatu konsep atau kejadian untuk diberi masukan oleh peserta didik. Setelah peserta didik memberikan suatu stimulus, komputer akan memberi respon terhadap masukan tersebut sebagaimana sistem yang sesungguhnya akan bertindak. Dari proses ini akan diketahui sejauh mana peserta didik memahami pelajaran.

Model pembelajaran yang menghubungkan secara langsung peserta didik dengan komputer dapat disebut dengan tutorial interaktif. Pola tutorial interaktif diwujudkan dalam bentuk menampilkan suatu materi melalui komputer. Tutorial ini mempunyai banyak fungsi diantaranya sebagai alat untuk mengetahui penguasaan dan pemahaman peserta didik dalam topik tertentu, memberi penguatan terhadap respon peserta didik yang tepat, mendiagnosa kekeliruan, menyediakan pilihan bagi peserta didik dengan bakat yang berlainan.

Salah satu contoh pemanfaatan teori matematika dalam komputasi yang dapat digunakan oleh peserta didik adalah teori graf. Teori graf merupakan satu cabang matematika yang berguna dalam membantu menyelesaikan masalah di berbagai bidang misalnya jaringan komunikasi, merancang suatu rangkaian elektronika dan sebagainya. Teori graf digunakan dengan cara membuat pemodelan dari permasalahan dalam bentuk simpul dan ruas garis, kemudian menyelesaikannya dalam model tersebut. Teori graf sangat berkembang, terutama karena perkembangan ilmu komputer dan komputasi yang sangat pesat. Graf adalah suatu model matematika yang sangat sesuai untuk menyelesaikan masalah di berbagai bidang, khususnya di bidang komputasi.

Kesimpulan :

Ilmu komputasi adalah bidang ilmu yang mempunyai perhatian pada penyusunan model matematika dan teknik penyelesaian numerik serta penggunaan komputer untuk menganalisis dan memecahkan masalah-masalah ilmu (sains) yang diartikan juga sebagai cara untuk menemukan pemecahan masalah menggunakan suatu algoritma. Komputasi juga merupakan suatu sub-bidang dari ilmu komputer dan matematika atau gabungan dari komputer dan matematika. Ilmu ini digunakan untuk menerapkan teori matematika ke dalam aplikasi komputer.

Tujuan belajar matematika berdasarkan kurikulum yakni agar peserta didik mampu menggunakan atau menerapkan matematika yang dipelajari dalam kehidupan sehari-hari agar diperoleh kemampuan bernalar pada diri peserta didik yang tercermin melalui kemampuan peserta didik berfikir kritis, logis, sisematis, dan memiliki sifat objektif, jujur, dan disiplin, dalam memecahkan suatu permasalahan baik dalam bidang matematika atau bidang lain.

Pemanfaatan teknologi elektronik dalam pembelajaran memberi penguatan terhadap pola perubahan paradigma pembelajaran. Penggunaan teknologi informasi dan multimedia menjadi salah satu cara yang efektif dan efisien dalam menyampaikan informasi kepada peserta didik  dan memiliki potensi besar untuk meningkatkan kualitas pembelajaran, khususnya dalam pembelajaran matematika. Salah satu contoh pemanfaatan teori matematika dalam komputasi yang dapat digunakan oleh peserta didik adalah teori graf. Graf adalah suatu model matematika yang sangat sesuai untuk menyelesaikan masalah di berbagai bidang, khususnya di bidang komputasi.

Kelebihan :

Menurut saya jurnal ini sudah menjelaskan tentang pemanfaatan teknologi dalam pembelajaran matemaika secara terperinci dengan mencakup segala aspek yang memang berkaitan dengan matematika dan teknologi. Jurnal ini juga memberikan salah satu contoh pemanfaatan teknologi dalam pembelajaran matematika yaitu teori graf.

Kekurangan :

Menurut saya alangkah lebih baiknya pada jurnal ini ditambahkan beberapa contoh software matematika dan kegunaannya dari software tersebut agar guru-guru bisa menggunakan sebagai alat bantu untuk mengajar.

Sumber :

http://sharetechnolive.blogspot.com/2010/05/penggunaan-teknologi-dalam-pembelajaran.htm

 
Tinggalkan komentar

Ditulis oleh pada Juni 17, 2015 in Uncategorized

 

Implementasi Komputasi Modern di Bidang Biologi

Oleh :

Rocky DNVS 56411427 / 4IA16

Raditya Fajar 55411739 / 4IA16

Yerni Euodia 57411507 / 4IA16

Dalam implementasi komputasi modern di bidang biologi terdapat Bioinformatika, sesuai dengan asal katanya yaitu “bio” dan “informatika”, adalah gabungan antara ilmu biologi dan ilmu teknik informasi (TI). Pada umumnya, Bioinformatika didefenisikan sebagai aplikasi dari alat komputasi dan analisa untuk menangkap dan menginterpretasikan data-data biologi. Ilmu ini merupakan ilmu baru yang yang merangkup berbagai disiplin ilmu termasuk ilmu komputer, matematika dan fisika, biologi, dan ilmu kedokteran, dimana kesemuanya saling menunjang dan saling bermanfaat satu sama lainnya.

Istilah bioinformatics mulai dikemukakan pada pertengahan era 1980-an untuk mengacu pada penerapan komputer dalam biologi. Namun demikian, penerapan bidang-bidang dalam bioinformatika (seperti pembuatan basis data dan pengembangan algoritma untuk analisis sekuens biologis) sudah dilakukan sejak tahun 1960-an.

Ilmu bioinformatika lahir atas insiatif para ahli ilmu komputer berdasarkan artificial intelligence. Mereka berpikir bahwa semua gejala yang ada di alam ini bisa diuat secara artificial melalui simulasi dari gejala-gejala tersebut. Untuk mewujudkan hal ini diperlukan data-data yang yang menjadi kunci penentu tindak-tanduk gejala alam tersebut, yaitu gen yang meliputi DNA atau RNA. Bioinformatika ini penting untuk manajemen data-data dari dunia biologi dan kedokteran modern. Perangkat utama Bioinformatika adalah program software dan didukung oleh kesediaan internet.

bioinformatics

Perkembangan teknologi DNA rekombinan memainkan peranan penting dalam lahirnya bioinformatika. Teknologi DNA rekombinan memunculkan suatu pengetahuan baru dalam rekayasa genetika organisme yang dikenala bioteknologi. Perkembangan bioteknologi dari bioteknologi tradisional ke bioteknologi modren salah satunya ditandainya dengan kemampuan manusia dalam melakukan analisis DNA organisme, sekuensing DNA dan manipulasi DNA.

Sekuensing DNA satu organisme, misalnya suatu virus memiliki kurang lebih 5.000 nukleotida atau molekul DNA atau sekitar 11 gen, yang telah berhasil dibaca secara menyeluruh pada tahun 1977. Kemudia Sekuen seluruh DNA manusia terdiri dari 3 milyar nukleotida yang menyusun 100.000 gen dapat dipetakan dalam waktu 3 tahun, walaupun semua ini belum terlalu lengkap. Saat ini terdapat milyaran data nukleotida yang tersimpan dalam database DNA, GenBank di AS yang didirikan tahun 1982. Bioinformatika (bahasa Inggris: bioinformatics) adalah ilmu yang mempelajari penerapan teknik komputasional untuk mengelola dan menganalisis informasi biologis. Bidang ini mencakup penerapan metode-metode matematika, statistika, dan informatika untuk memecahkan masalah-masalah biologis, terutama dengan menggunakan sekuens DNA dan asam amino serta informasi yang berkaitan dengannya. Contoh topik utama bidang ini meliputi basis data untuk mengelola informasi biologis, penyejajaran sekuens (sequence alignment), prediksi struktur untuk meramalkan bentuk struktur protein maupun struktur sekunder RNA, analisis filogenetik, dan analisis ekspresi gen.

Bioinformatika ialah ilmu yang mempelajari penerapan teknik komputasi untuk mengelola dan menganalisis informasi hayati. Bidang ini mencakup penerapan metode-metode matematika,statistika, dan informatika untuk memecahkan masalah-masalah biologi, terutama yang terkait dengan penggunaan sekuens DNA dan asam amino. Contoh topik utama bidang ini meliputipangkalan datauntuk mengelola informasi hayati, penyejajaran sekuens (sequence alignment), prediksi struktur untuk meramalkan struktur protein atau pun struktur sekunder RNA, analisisfilogenetik, dan analisis ekspresi gen.

Bioinformatika pertama kali dikemukakan pada pertengahan 1980an untuk mengacu kepada penerapan ilmukomputer dalam bidang biologi. Meskipun demikian, penerapan bidang-bidang dalam bioinformatika seperti pembuatan pangkalan data dan pengembangan algoritmauntuk analisis sekuens biologi telah dilakukan sejak tahun1960an.

Membicarakan bioinformatika, tak dapat lepas dari proses lahirnya bidang tersebut. Sebagaimana diketahui, bioteknologi dan teknologi informasi merupakan dua di antara berbagai teknologi penting yang mengalami perkembangan signifikan dalam beberapa tahun terakhir ini. Bioteknologi berakar dari bidang biologi, sedangkan perkembangan teknologi informasi tak dapat dilepaskan dari matematika. Umumnya biologi dan matematika dianggap sebagai dua bidang yang sangat berbeda, dan sulit untuk dipadukan. Tetapi perkembangan ilmu pengetahuan terkini justru menunjukkan sebaliknya. Perpaduan antara biologi dan matematika, menghasilkan embrio suatu cabang pengetahuan baru yang memiliki masa depan yang menjanjikan di abad 21 ini. Embrio itulah yang bernama bioinformatika. Bioinformatika merupakan perpaduan harmonis antara teknologi informasi dan bioteknologi, yang dilatarbelakangi oleh ledakan data (data explosion) observasi biologi sebagai hasil yang dicapai dari kemajuan bioteknologi. Contohnya adalah pertumbuhan pesat database DNA pada GenBank. Genbank adalah database utama dalam biologi molekuler, yang dikelola oleh NCBI (National Center for Biotechnology Information) di AS.

Kemajuan teknik biologi molekuler dalam mengungkap sekuens biologi protein (sejak awal 1950an) dan asam nukleat (sejak 1960an) mengawali perkembangan pangkalan data dan teknik analisis sekuens biologi. Pangkalan data sekuens protein mulai dikembangkan pada tahun 1960an diAmerika Serikat, sementara pangkalan data sekuens DNA dikembangkan pada akhir 1970an di Amerika Serikat danJerman pada Laboratorium Biologi Molekuler Eropa(European Molecular Biology Laboratory).

Penemuan teknik sekuensing DNA yang lebih cepat pada pertengahan 1970an menjadi landasan terjadinya ledakan jumlah sekuens DNA yang dapat diungkapkan pada 1980an dan1990an. Hal ini menjadi salah satu pembuka jalan bagi proyek-proyek pengungkapan genom, yang meningkatkan kebutuhan akan pengelolaan dan analisis sekuens, dan pada akhirnya menyebabkan lahirnya bioinformatika.

Perkembangan jaringan internet juga mendukung berkembangnya bioinformatika. Pangkalan data bioinformatika yang terhubungkan melalui internet memudahkan ilmuwan dalam mengumpulkan hasil sekuensing ke dalam pangkalan data tersebut serta memperoleh sekuens biologi sebagai bahan analisis. Selain itu, penyebaran program-program aplikasi bioinformatika melalui internet memudahkan ilmuwan dalam mengakses program-program tersebut dan kemudian memudahkan pengembangannya.

Sumber: http://www.slideshare.net/bhaykur/komputasi-modern-dalam-bidang-biologi-46322805

 
Tinggalkan komentar

Ditulis oleh pada Juni 17, 2015 in Uncategorized

 

Pemodelan Grafik

Pemodelan adalah membentuk suatu benda-benda atau obyek. Membuat dan mendesain obyek tersebut sehingga terlihat seperti hidup. Sesuai dengan obyek dan basisnya, proses ini secara keseluruhan dikerjakan di komputer. Melalui konsep dan proses desain, keseluruhan obyek bisa diperlihatkan secara 3 dimensi, sehingga banyak yang menyebut hasil ini sebagai pemodelan 3 dimensi (3D modelling).

Menurut kamus besar bahasa Indonesia desain berarti suatu kerangka bentuk, rancangan. Kemudian pemodelan dari asal kata model merupakan pola (contoh, acuan, ragam) dari sesuatu yang akan dibuat atau dihasilkan, dengan menggunakan imbuhan pe-an maka pemodelan berarti proses pembuatan pola untuk menghasilkan sesuatu. Selanjutnya grafik merupakan lukisan pasang surut suatu keadaan dengan garis atau gambar. Jadi secara keseluruhan, pengertian dari desain pemodelan grafik adalah suatu proses pembuatan kerangka rancangan yang meliputi pembuatan pola untuk menghasilkan suatu objek berupa gambar.Ada beberapa aspek yang harus dipertimbangkan bila membangun model obyek, kesemuanya memberi kontribusi pada kualitas hasil akhir. Hal-hal tersebut meliputi metoda untuk mendapatkan atau membuat data yang mendeskripsikan obyek, tujuan dari model, tingkat kerumitan, perhitungan biaya, kesesuaian dan kenyamanan, serta kemudahan manipulasi model.

Proses pemodelan 3D membutuhkan perancangan yang dibagi dengan beberapa tahapan untuk pembentukannya. Seperti obyek apa yang ingin dibentuk sebagai obyek dasar, metoda pemodelan obyek 3D, pencahayaan dan animasi gerakan obyek sesuai dengan urutan proses yang akan dilakukan.

a. Motion Capture/Model 2D

Yaitu langkah awal untuk menentukan bentuk model obyek yang akan dibangun dalam bentuk 3D. Penekanannya adalah obyek berupa gambar wajah yang sudah dibentuk intensitas warna tiap pixelnya dengan metode Image Adjustment Brightness/Contrast, Image Color Balance, Layer Multiply, dan tampilan Convert Mode RGB dan format JPEG. Dalam tahap ini digunakan aplikasi grafis seperti Adobe Photoshop atau sejenisnya. Dalam tahap ini proses penentuan obyek 2D memiliki pengertian bahwa obyek 2D yang akan dibentuk merupakan dasar pemodelan 3D.

Keseluruhan obyek 2D dapat dimasukkan dengan jumlah lebih dari satu, model yang akan dibentuk sesuai dengan kebutuhan. Tahap rekayasa hasil obyek 2D dapat dilakukan dengan aplikasi program grafis seperti Adobe Photoshop dan lain sebagainya, pada tahap pemodelan 3D, pemodelan yang dimaksud dilakukan secara manual. Dengan basis obyek 2D yang sudah ditentukan sebagai acuan. Pemodelan obyek 3D memiliki corak yang berbeda dalam pengolahannya, corak tersebut penekanannya terletak pada bentuk permukaan obyek.

b. Dasar Metode Modeling 3D

Ada beberapa metode yang digunakan untuk pemodelan 3D. Ada jenis metode pemodelan obyek yang disesuaikan dengan kebutuhannya seperti dengan nurbs dan polygon ataupun subdivision. Modeling polygon merupakan bentuk segitiga dan segiempat yang menentukan area dari permukaan sebuah karakter. Setiap polygon menentukan sebuah bidang datar dengan meletakkan sebuah jajaran polygon sehingga kita bisa menciptakan bentuk-bentuk permukaan. Untuk mendapatkan permukaan yang halus, dibutuhkan banyak bidang polygon. Bila hanya menggunakan sedikit polygon, maka object yang didapat akan terbagi sejumlah pecahan polygon.

Sedangkan Modeling dengan NURBS (Non-Uniform Rational Bezier Spline) merupakan metode paling populer untuk membangun sebuah model organik. Kurva pada Nurbs dapat dibentuk dengan hanya tiga titik saja. Dibandingkan dengan kurva polygon yang membutuhkan banyak titik (verteks) metode ini lebih memudahkan untuk dikontrol. Satu titik CV (Control verteks) dapat mengendalikan satu area untuk proses tekstur.

c. Proses Rendering

Tahap-tahap di atas merupakan urutan yang standar dalam membentuk sebuah obyek untuk pemodelan, dalam hal ini texturing sebenarnya bisa dikerjakan overlap dengan modeling, tergantung dari tingkat kebutuhan. Rendering adalah proses akhir dari keseluruhan proses pemodelan ataupun animasi komputer. Dalam rendering, semua data-data yang sudah dimasukkan dalam proses modeling, animasi, texturing, pencahayaan dengan parameter tertentu akan diterjemahkan dalam sebuah bentuk output. Dalam standard PAL system, resolusi sebuah render adalah 720 x 576 pixels. Bagian rendering yang sering digunakan:

  • Field Rendering. Field rendering sering digunakan untuk mengurangi strobing effect yang disebabkan gerakan cepat dari sebuah obyek dalam rendering video.
  • Shader. Shader adalah sebuah tambahan yang digunakan dalam 3D software tertentu dalam proses special rendering. Biasanya shader diperlukan untuk memenuhi kebutuhan special effect tertentu seperti lighting effects, atmosphere, fog dan sebagainya.

d. Texturing

Proses texturing ini untuk menentukan karakterisik sebuah materi obyek dari segi tekstur. Untuk materi sebuah object bisa digunakan aplikasi properti tertentu seperti reflectivity, transparency, dan refraction. Texture kemudian bisa digunakan untuk meng-create berbagai variasi warna pattern, tingkat kehalusan/kekasaran sebuah lapisan object secara lebih detail.

e. Image dan Display

Merupakan hasil akhir dari keseluruhan proses dari pemodelan. Biasanya obyek pemodelan yang menjadi output adalah berupa gambar untuk kebutuhan koreksi pewarnaan, pencahayaan, atau visual effect yang dimasukkan pada tahap teksturing pemodelan. Output images memiliki Resolusi tinggi berkisar Full 1280/Screen berupa file dengan JPEG,TIFF, dan lain-lain. Dalam tahap display, menampilkan sebuah bacth Render, yaitu pemodelan yang dibangun, dilihat, dijalankan dengan tool animasi. Selanjutnya dianalisa apakah model yang dibangun sudah sesuai tujuan. Output dari Display ini adalah berupa *.Avi, dengan Resolusi maksimal Full 1280/Screen dan file *.JPEG.

Ada beberapa metode yang digunakan untuk pemodelan 3D. Metode pemodelan obyek disesuaikan dengan kebutuhannya seperti dengan nurbs dan polygon ataupun subdivision. Modeling polygon merupakan bentuk segitiga dan segiempat yang menentukan area dari permukaan sebuah karakter. Setiap polygon menentukan sebuah bidang datar dengan meletakkan sebuah jajaran polygon sehingga kita bisa menciptakan bentuk-bentuk permukaan. Untuk mendapatkan permukaan yang halus, dibutuhkan banyak bidang polygon. Bila hanya digunakan sedikit polygon, maka object yang didapatkan akan terbagi menjadi pecahan-pecahan polygon.

Sedangkan Modeling dengan Nurbs (Non-Uniform Rational Bezier Spline) adalah metode paling populer untuk membangun sebuah model organik. Hal ini dikarenakan kurva pada Nurbs dapat dibentuk dengan hanya tiga titik saja. Dibandingkan dengan kurva polygon yang membutuhkan banyak titik (verteks) metode ini lebih memudahkan untuk dikontrol. Satu titik CV (Control verteks) dapat mengendalikan satu area untuk proses tekstur.

Desain permodelan grafik sangat berkaitan dengan grafik komputer. Berikut adalah kegiatan yang berkaitan dengan grafik komputer:

  1. Pemodelan geometris : menciptakan model matematika dari objek-objek 2D dan 3D.
  2. Rendering : memproduksi citra yang lebih solid dari model yang telah dibentuk.
  3. Animasi : Menetapkan/menampilkan kembali tingkah laku/behaviour objek bergantung waktu.
  4. Graphics Library/package (contoh : OpenGL) adalah perantara aplikasi dan display hardware(Graphics System).
  5. Application program memetakan objek aplikasi ke tampilan/citra dengan memanggil graphics library.
  6. Hasil dari interaksi user menghasilkan/modifikasi citra.
  7. Citra merupakan hasil akhir dari sintesa, disain, manufaktur, visualisasi dll.

 Image

Pemodelan Geometris

Transformasi dari suatu konsep (atau suatu benda nyata) ke suatu model geometris yang bisa ditampilkan pada suatu komputer :

  • Shape/bentuk
  • Posisi
  • Orientasi  (cara pandang)
  • Surface Properties/Ciri-ciri Permukaan (warna, tekstur)
  • Volumetric Properties/Ciri-ciri volumetric (ketebalan/pejal, penyebaran cahaya)
  • Lights/cahaya (tingkat terang, jenis warna)
  • Dan lain-lain …

Pemodelan Geometris yang lebih rumit :

  • Jala-jala segi banyak: suatu koleksi yang besar dari segi bersudut banyak, dihubungkan satu sama lain.
  • Bentuk permukaan bebas: menggunakan fungsi polynomial tingkat rendah.
  • CSG: membangun suatu bentuk dengan menerapkan operasi boolean pada bentuk yang primitif.

Image

 Image

Hardware Display Grafik : Vektor

  1. Vetor (calligraphic, stroke, random-scan)
  2. Arsitektur Vektor

Hardware Display Grafik : Raster

  1. Raster (TV, bitmap, pixmap), digunakan dalam layar dan laser printer
  2. Arsitektur Raster

Tipe-Tipe Citra

Grafis Komputer 2D

Grafik komputer 2D  adalah pembuatan objek gambar yang masih berbasis gambar dengan perspektif 2 titik sebagai contoh adalah:gambar teks,bangun 2D seperti segitiga,lingkaran dsb. Grafik komputer 2D kebanyakan digunakan pada aplikasi yang digunakan hanya untuk mencetak dan menggambar seperti tipografi, gambar, kartun,iklan, poster dll.

Pixel Art 

Pixel art adalah sebuah bentuk seni digital, yang diciptakan melalui penggunaan perangkat lunak grafik raster di mana gambar akan diedit pada tingkat pixel.  Pixel art dapat ditemukan pada komputer atau game-game yang relatif tua, dan juga dapat ditemukan pada telepon genggam.

Vector graphics

Berbeda dengan pixel, grafik vektor merupakan representasi dari gambar dengan berupa array pixel. Dimana keunggulannya adalah pada resolusi berapapun dan tingkat pembesaran apapun gambar yang dihasilkan tetap(tidak blur atau pecah)

Grafik Komputer 3D

Grafik komputer 3D merupakan suatu grafis yang menggunakan 3 titik perspektif dengan cara matematis dalam melihat suatu objek, dimana gambar tersebut dapat dilihat secara menyeluruh dan nyata. Untuk perangkat-perangkat lunak yang digunakan untuk grafik komputer 3D ini banyak bergantung pada aloritma-algoritma.

Animasi Komputer

Animasi Komputer adalah seni membuat gambar bergerak melalui komputer.  Biasanya ini digunakan pada film-film animasi berbudget besar. Tetapi film-film non animasi juga banyak yang menggunakan teknik ini, sebut saja Lord Of  The Ring, Harry Potter, dsb.

Manipulasi Gambar
Translasi
Translasi adalah suatu perpindahan semua titik dari objek pada suatu jalur lurus sehingga menempati posisi baru.
Jalur yang direprestasikan oleh vektor tersebut dinamakan translasi atau bisa disebut juga vektor geser
Rotasi
Rotasi adalah mereposisi semua titik dari objek sepanjang jalur lingkaran dengan pusat pada titik pivot.
Skala
Penskalaan koordinat dimaksud untuk menggandakan setiap komponen yang ada pada objek secera scalar. Keseragaman penskalaran berarti skala yang digunakan sama untuk semua komponen objek.
Dilatasi
Adalah suatu transformasi yang mengubah ukuran (memperbesar atau memperkecil) suatu bangun tetapi tidak mengubah bentuk bangunnya.
Refleksi
Merupakan suatu transformasi yang mencerminkan suatu objek.
Sifat-sifat Refleksi
a. Dua refleksi berturut-turut terhadap sebuah garis merupakan suatu identitas, artinya yang direfleksikan tidak berpindah.
b. Pengerjaan dua refleksi terhadap dua sumbu yang sejajar, menghasilkan translasi (pergeseran) dengan sifat:
o Jarak bangun asli dengan bangun hasil sama dengan dua kali jarak kedua sumbu pencerminan.
o Arah translasi tegak lurus pada kedua sumbu sejajar, dari sumbu pertama ke sumbu kedua. Refleksi terhadap dua sumbu sejajar bersifat tidak komutatip.
c. Pengerjaaan dua refleksi terhadap dua sumbu yang saling tegak lurus, menghasilkaan rotasi (pemutaran) setengah lingkaran terhadap titik potong dari kedua sumbu pencerminan. Refleksi terhadap dua sumbu yang saling tegak lures bersifat komutatif.
d. Pengerjaan dua refleksi berurutan terhadap dua sumbu yang berpotongan akan menghasilkan rotasi (perputaran) yang bersifat:
o Titik potong kedua sumbu pencerminan merupakan pusat perputaran.
o Besar sudut perputaran sama dengan dua kali sudut antara kedua sumbu pencerminan.
o Arah perputaran sama dengan arah dari sumbu pertama ke sumbu kedua

Ada beberapa software yang digunakan dalam desain grafis :

 Desktop publishing

  • Adobe Photoshop
  • Adobe Illustrator
  • Adobe Indesign
  • Coreldraw
  • GIMP
  • Inkscape
  • Adobe Freehand
  • Adobe image ready
  • CorelDraw
  • Adobe Page Maker
  • Paint Tool SAI

Webdesign

  • Adobe Dreamweaver
  • Microsoft Frontpage
  • Notepad
  • Adobe Photoshop

Audiovisual

  • Adobe After Effect
  • Adobe Premier
  • Final Cut
  • Adobe Flash, atau sebelumnya Macromedia Flash
  • Ulead Video Studio
  • Magic Movie Edit Pro
  • Power Director

Rendering 3 Dimensi

  • 3D StudioMax
  • Maya
  • AutoCad
  • Google SketchUp
  • Light Wave
  • Blender
  • Softimage

REFRENSI :

http://safemode.web.id/artikel/design/desain-pemodelan-grafik#ixzz2jefLcSCf

http://musisiardyan.blogspot.com/2010/02/desain-pemodelan-grafik.html

http://g2hcombro.wordpress.com/2010/02/27/artikel-desain-pemodelan-grafik/

http://shintadewantif.blogspot.com/2013/10/artikel-teori-dan-software-tentang.html

 
Tinggalkan komentar

Ditulis oleh pada November 4, 2013 in Uncategorized

 

Analisis Web

  1. ANALISIS PENGUKURAN WEB
  • JAWSTATS Jika Anda pernah menggunakan Awstats, Anda pasti tidak akan asing dengan JAWStats juga. JAWStats dipadukan bersama dengan Awstats akan menghasilkan grafis lebih baik dari Awstats.
  • GOINGUP! Goingup! satu alat statistik website yang  menawarkan berbagai jenis data statistik, yang menarik secara visual. Sebagian besar dari fungsi goingup! terkait anlisa SEO.
  • CLICKY Clicky juga memiliki banyak fitur yang berbeda karena sebagai alat analisis situs web yang dapat diakses dari iPhone.
  • GOOGLE ANALYTICS Google Analytics merupakan salah satu alat analisa yang terbaik karena itu benar-benar hasilnya komprehensif, yang akan memberikan data detail yang berguna untuk situs Anda.
  • W3COUNTER W3Counter adalah alat analisa gratis sebagai situs solusi analisis host untuk menjawab pertanyaan kunci tentang situs web Anda: siapa audiens Anda, bagaimana mereka menemukan situs Anda, dan apa kepentingan mereka mengakses situs anda.
  • WOOPRA Woopra adalah paket website yang sangat baik hasil analisisnya. Woopra memiliki banyak, banyak fitur bagi para webmaster, Woopra, hampir sama dengan Google Analytics, sebagai alat analisis situs yang paling komprehensif.
  • W3PERL W3Perl dapat digunakan untuk file log server atau digunakan sebagai alat penandaan halaman.cara kerjanya dengan Script perl untuk menganalisis file log dan menghasilkan laporan HTML / PDF. Hal ini dapat dijalankan dari baris perintah atau dari antarmuka pada web.
  • PIWIK Piwik memiliki semua fitur yang dapat Anda harapkan dari aplikasi analisis. Keuntungan utama adalah bahwa fitur-fiturnya datang dalam bentuk plugin, yang berarti Anda dapat memilih fitur yang dapat disesuaikan dengan kebutuhan anda.

A. Tools Analisis Web:

kita perlu analisa website atau blog dengan layanan online untuk memeriksa detail informasi “accessibility” dari website/blog anda. Dibawah ini, ada 8 Tool Analisa Web yang dapat membantu anda untuk analisis website dengan memberikan informasi detail dari segi “accessibility” dan desain. Semua tool online dibawah ini, gratis dan sangat mudah untuk digunakan:

 Color Blindness Simulator

Colour Blindness Simulator, dapat membantu anda untuk memeriksa bagaimana aspek gambar dan pewarnaan (color) dari website/blog. Anda juga dapat dengan cepat upload file gambar (JPEG) dengan resolusi 1000x1000px  dan analisa aspek pewarnaan halaman website anda.

Juicy Studios Image Analyzer

Dengan tool online ini, kita dapat menganalisa masalah setiap gambar yang ada pada halaman website. Tool ini juga, dapat menginformasikan detail informasi width, height, alt, dan longdesc, makanya tool website – Image Analyzer merupakan salah satu tool analisa website terbaik.

 Firefox Accessibility Extension

Jika anda termasuk pengguna web browser Firefox, maka Add-ons Friefox ini sangat penting karena dengan Add-ons ini, anda dapat aktifkan setiap element desain dari halaman website. Anda dapat dengan cepat buat daftar gambar dan element yang lain. Add-ons ini juga disertakan dengan standar validasi “W3C HTML Validator” .

Test and Improve Readability

Tool Online gratis dengan fitur untuk testing dan meningkatkan konten website anda.

LinkPatch

“Broken link”  membuat halaman webstie.blog dan yang lain menjadi tidak dapat diakses, hal ini adalah yang terpenting selain faktor SEO, tapi dengan tool seperti LinkPatch, untuk cek “broken link” dari semua URL yang anda inginkan. Dengan LinkPatch, anda dapat install kode tracking  dalam hitungan detik dengan fitur monitoring.

WAVE

WAVE merupakan tool interaktif yang menunjukkan tingkat kunjungan dari website dengan 3 cara yang berbeda: “Errors, Features, and Alerts”, “Structure/Order”, dan Text-Only”.

AccessColor

Tes AccessColor kontras warna dan “color brightness” antara bagian depan dan belakang dari semua element DOM. AccessColor akan menemukan kombinasi warna yang relevan dengan dokumen HTML dan CSS.

  aDesigner

aDesigner adalah simulator yang membantu desainer untuk memastikan konten dan aplikasinya diakses. aDesigner juga membantu user untuk cek aksesbility dokumen ODF dan Flash.

Analisis dan Komparasi Web Menggunakan Parameter Inbound Link

Pada kali ini saya akan membahas, menganalisa, dan melakukan perbandingan Inbound Link pada ke 2 website melalui parameter Statsie(Website Statistic and Analysis). Sebelum saya membahas, menganalisa, dan melakukan perbandingan. saya akan lebih dahulu menjelaskan tentang “Inbound Link”.

Apa itu “Inbound Link”? Inbound Link adalah Link atau Hyperlink yang akan membawa kita masuk kedalam sebuah Website/Blog tertentu yang berasal dari situs eksternal lainnya. Jika suatu Website/Blog memiliki Inbound Link yang luas, hal itu akan menguntungkan Website/Blog tersebut. Karena akan memperbanyak probabilitas/kemungkinan Informasi, Artikel ataupun Posting  dibaca dan dikunjungi oleh orang lain, serta akan mendongkrak peringkat Website/Blog tersebut pada Pagerank Google. Agar selalu menjadi yang teratas dalam Search Engine Google.

Dari penjelasan diatas, saya akan mencoba untuk menganalisa studi kasus pada Inbound Link. sebagai contoh saya akan menganalisa dan membandingkan sebuah sub website yang terdapat di kampus saya yaitu: ps-mikam.gunadarma.ac.id dan pusatstudi.gunadarma.ac.id.

Ps-Mikam dan PusatStudi adalah sub website Universtas Gunadarma dimana website tersebut merupakan website yang menjadi “wadah” bagi para peneliti di universitas gunadarma untuk memberikan publikasi baik karya dan ciptaannya. Menurut hasil analisis dan perbandingan saya terhadap dua website tersebut, Melalui http://statsie.com(Website Statistic and Analysis) kedua web tersebut masing-masing memiliki Inbound Link yang berasal dari Website ekternal lainnya.

saya akan menampilkan gambar screenshot yang mana menunjukkan masing-masing Inbound Link dari kedua Website tersebut, dari hasil penulusuran yang saya lakukan pada website http://statsie.com,

Kesimpulannya adalah Inbound Link sungguh sangat membantu sebuah website untuk dapat mempromosikan sebuah website/blog. Inbound Link juga menguntungkan untuk mendongkrak peringkat Website/Blog tersebut pada Pagerank Google, Agar selalu menjadi yang teratas dalam Search Engine Google.

            2. SEARCH ENGINE

 A.     Contoh Search Engine dan Perbedaannya:

 1.       Yahoo!(www.yahoo.com)

Salah satu portal terbesar di Internet, selain MSN., dan juga salah satu mesin pencaru tertua. Halaman utamanya sendiri tidak terlalu ramah untuk pencarian, tetapi Yahoo! menyediakan search.yahoo.com untuk itu. Yahoo! menggunakan jasa Google untuk mencari informasi di web, ditambah dengan informasi dari databasenya sendiri. Kelebihan Yahoo! adalah direktorinya. Yahoo! juga menyediakan pencarian yellow pages dan peta, yang masih terbatas pada Amerika Serikat. Yahoo juga menyediakan pencarian gambar.

2.       Alltheweb (http://www.alltheweb.com)

Keunggulan Alltheweb adalah pencarian file pada FTP Server. Tidak seperti web, FTP adalah teknologi internet yang ditujukan untuk menyimpan dan mendistribusikan file, biasanya program, audio atau video. Web sebenarnya lebih ditujukan untuk teks. Sejauh ini, hanya AllTheWeb yang menyediakan jasa pencarian file.

3.       MSN (http://search.msn.com)

Mesin pencari dari Microsoft Network ini menawarkan pencarian baik dengan kata kunci maupun dari direktori. Pemakai InternetExplorer kemungkinan besar sudah pernah menggunakan mesin pencari ini. Situs Searchenginewatch mencatat MSN sebagai mesin pencari ketiga populer setelah Google dan Yahoo! Tak ada pencarian image, atau news. Menyediakan pencarian peta, yellow pages, white pages, pencarian pekerjaan, rumah.

4.       AskJeeves (http://www.ask.com)

Situs mesin pencari yang satu ini mengunggulkan kemampuannya  untuk memahami bahasa manusia. Pengguna bisa menggunakan  kalimat lengkap, bukan kata kunci. Situs ini berguna untuk  mengetahui jawaban dari pertanyaan(misal: when did world war II end?).

5.       Google (www.google.com)

Selain pencarian web, Google juga menyediakan jasa pencarian gambar, pencarian ?berita serta pencarian pada arsip USENET (newsgroup), serta direktori, seperti Yahoo! Kelemahannya terletak pada tidak tersedianya pencarian file, video, dan audio. Keunggulan Google terutama adalah pada pencarian teks, terutama dari algoritma PageRank, database-nya yang besar serta banyaknya jenis file yang diindeksnya.

6.       AltaVista (www.altavista.com)

Satu saat, AltaVista pernah menjadi mesin pencari terbesar. Saat ini, selain Alltheweb, Altavista juga menawarkan pencarian audio dan video. Keunggulan AltaVista adalah pilihan pencarian yang paling lengkap di antara semua mesin pencari.

7.       Lycos (http://www.lycos.com)

Salah satu mesin pencari tertua. Saat ini Lycos lebih dikenal sebagai portal, sehingga fungsi pencarinya tidak terlalu menonjol. Lycos, selain mendukung pencarian web, juga menyediakan pencarian file MP3, dan video pada http://multimedia.lycos.com.

8.       AskSEMAR.com (http://www.AskSEMAR.com)

telah launching sejak januari 2009, sebuah situs search engine baru dengan nama AskSEMAR.com, saat ini kontent yang mereka tampung adalah kontent website-website indonesia.Untuk memasukan website kita pun mudah tanpa perlu mendaftar mirip dengan mbah google, mbah semar ini pun punya tampilan yang sederhana untuk mempermudah pemakaiannya.

9.       detikSearch.com

detiksearch.com, search engine ini asli dimiliki oleh Indonesia. Levelnya masih beta tapi dilengkapi dengan script ajax (javascript). dan karena levelnya yang masih pada level beta, search engine ini hanya berfungsi optimal di Mozilla dan Internet Explorer.

10.   CANGKOK.com

Cangkok mempunyai arti memperbarui, mengganti, serta mengkombinasikan segala sesuatu sehingga menjadi lebih baik dan lebih bermanfaat.Digunakan kata “Cangkok” sesuai dengan komitmen sosial beberapa perusahaan yang tergabung dalam Singo Group Co., yaitu turut aktif mencerdaskan dan meningkatkan kehidupan Bangsa Indonesia. Cangkok berusaha memberikan hasil pencarian yang terbaik di internet, khususnya hasil pencarian dalam Bahasa Indonesia. Cangkok, membuat mesin pencarian terbesar di Indonesia, dengan teknologi pencarian terbarukan menempatkannya pada posisi yang jauh berbeda dengan mesin pencarian yang tersedia saat ini. Dan berusaha terus-menerus dikembangkan, sehingga dapat memberikan hasil pencarian yang benar-benar relevan dengan keinginan pemakai. Saat ini sedang dikembangkan sistem direktori yang nantinya akan dikombinasikan dengan teknologi pencarian cangkok. Sehingga dapat memberikan beberapa alternatif hasil pencarian yang benar-benar sesuai dengan keinginan pemakai. Metode siterank cangkok menempatkan informasi-informasi yang paling relevan akan ditampilkan dahulu. Cangkok menilai pentingnya infomasi pada halaman web, tidak hanya berdasarkan perolehan suara yang diperoleh, juga tidak hanya dari hasil analisis terhadap si pemberi suara (yang ngeklik). Namun juga menganalisis keterkaitan antar kata, antar kalimat, sruktur web, antar halaman web, baik dalam web terkait maupun dengan web lainnya. Sedemikian rupa sehingga informasi yang terkandung dalam web tersebut memperoleh peringkat yang sesuai dengan relevansinya. Sesuai dengan teknologi pencarian cangkok yang otomatis dan kompleks serta metode siterank tersebut, maka pencarian di cangkok adalah pencarian yang obyektif, jujur, dan berkualitas tinggi. Sehingga hasil peringkat suatu web tidak dapat direkayasa oleh manusia. Serta tidak seorang pun dapat membeli peringkat yang lebih tinggi pada hasil pencarian.

11.   nowGoogle.com

nowGoogle.com adalah multiple search engine popular hasil karya anak Indonesia yang baru dan mempunyai kemampuan yang unik.

12.   Basigi

Basigi merupakan mesin pencari dengan tampilan yang masih sangat sederhana. “Pengembang Basigi mendesain Basigi untuk melayani pencarian data yang sesuai dengan kebutuhan pengguna lokal,” begitu admin Basigi menulis dalam situs tersebut.

B.      Cara Kerja Search Engine:

Search engine itu bergantung pada program robot yang sangat rumit biasa disebut algoritma. Robot ini melakukan 4 hal, yaitu menjelajahi internet, mengumpulkan data ke dalam indexnya, menilai penekanan relevansi pada setiap halaman, dan memberikan ranking pada setiap halaman berdasarkan relevansinya dengan suatu kata kunci.

ü  Menjelajahi Internet

Sekarang anggap saja internet itu seperti sebuah sarang laba-laba yang besar. Sarang laba-laba itu terdiri dari banyak simpul yang dihubungkan oleh jaring-jaring tipis. Seekor laba-laba tidak bisa menuju ke suatu titik di dalam sarangnya jika tidak ada jaring yang menghubungkannya dengan titik tersebut.

Demikian juga di dunia internet. Anggap saja blog anda adalah sebuah titik di dalam sarang yang luas. Jika anda ingin robot penjelajah atau spiderbot mengunjungi blog anda, maka yang perlu anda lakukan hanyalah mencari link dari situs yang sudah pernah dilalui spiderbot. Dapatkan link sebanyak-banyaknya, maka semakin cepat situs dan halaman-halaman anda dikunjungi spiderbot.

Saudara bisa mendapatkan link ini dengan cara komentar di blog dofollow, atau bertukar link, dan masih banyak metode lainnya. Jangan tertipu dengan layanan search engine submission, yang mengirimkan URL anda ke mesin-mesin pencari. Ini adalah layanan sampah yang tidak ada gunanya. Selain anda butuh waktu yang lebih lama untuk terindeks, sistem ini juga tidak menambah poin anda di mata robot search engine.

Singkat kata, yang dibutuhkan oleh sebuah blog untuk mendapat kunjungan Robot Search Engine seperti Google hanyalah sebuah link dari website lain.

ü  Membangun Indeks

Setelah spiderbot sampai ke halaman blog anda, maka dia akan membaca semua teks (tulisan) yang ada pada halaman tersebut tersebut lalu menyimpannya ke database search engine. Tempat penyimpanan data ini bisa anda bayangkan sebagai hardisk yang amat sangat besar sekali yang tersebar di beberapa negara.

Halaman yang sudah dibaca, akan dianalisa dan disusun berdasarkan persentase jumlah kata, penekanan-penekanan dengan menggunakan title tag, meta description, bold, dll. Proses ini sangatlah rumit, dan menggunakan banyak algoritma untuk mengenali, yang mana yang penting, dan yang mana tidak penting. Setelah di analisa, maka data-data ini disimpan untuk dipanggil kapanpun ada query yang membutuhkan.

Setelah proses ini selesai, maka blog anda sudah terindeks. Apakah itu berarti blog anda akan ditampilkan Google? Tentu tidak, prosesnya masih panjang. Jadi jangan gembira hanya karena blog anda terindeks. Google bisa saja mengindeks milyaran halaman, tapi hanya ada 10 tempat di halaman pertama. Jadi perjalanan belum selesai. Bagaimana cara kerja search engine saat ada query pencarian kata kunci yang diinput oleh seseorang? Ini bagian pentingnya

ü  Mengukur Relevansi Halaman Web

Halaman-halaman web yang disimpan di dalam database search engine mempunyai begitu banyak parameter. Semua kata pada halaman tersebut akan dihitung untuk menentukan relevansi halaman tersebut. Teks Jangkar pada link yang masuk pun diperhitungkan, dan ada begitu banyak lagi parameter yang menjadi penilaian suatu halaman. Google menyatakan bahwa ada lebih dari 200 faktor yang menjadi parameter untuk menentukan poin relevansi suatu halaman.

ü  Memberi Rangking untuk Query

Pada saat seseorang membuka situs search engine dan memasukkan kata kunci, maka kata kunci itu akan dipilah per kata dan dicek oleh algoritma robot. Hasil pengecekan tersebut menentukan karakteristik nilai dan parameter yang disetujui oleh search engine. Nilai itulah yang kemudian disesuaikan dengan semua halaman yang disimpan di dalam database. Jika halaman anda yang paling memenuhi kualifikasi maka akan berada di halaman pertama.

3.    CRAWLER

 A.     Pengertian Crawler:

Crawler: Sebuah program yg secara otomatis memfollow up semua link yg ada di halaman web. Web Crawler adalah sebuah program/script otomatis yang memprosess halaman web. Bisa juga disebut sebagai web spider atau web robot. Web crawler atau yang dikenal juga dengan istilah web spider bertugas untuk mengumpulkan semua informasi yang ada di dalam halaman web.

B.      Crawler yang Ada di Search Engine:

Teleport Pro

Salah satu software web crawler untuk keperluan offline browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com.

HTTrack

Ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan software yang dapat mendownload konten website menjadi sebuah mirror pada harddisk anda, agar dapat dilihat secara offline. Yang menarik software ini free dan dapat di download pada website resminya di http://www.httrack.com

Googlebot

Merupakan web crawler untuk membangun index pencarian yang digunakan oleh search engine Google. Kalau website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita karena proses crawling ini.

Yahoo!Slurp

Kalau Googlebot adalah web crawler andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh Inktomi Corporation yang diakuisisi oleh Yahoo!.

YaCy

Sedikit berbeda dengan web crawler  lainnya di atas, YaCy dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan menggunakan java, dan didistribusikan pada beberapa ratus mesin computer (disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk berbagi index, sehingga tidak memerlukan server central. Contoh search engine yang menggunakan YaCy adalah Sciencenet (http://sciencenet.fzk.de), untuk pencarian dokumen di bidang sains.

 C.      Cara Kerja Crawler:

Ide dasarnya sangat simpel dan hampir sama dengan ketika kalian sedang menjelajahi halaman website secara manual dengan menggunakan browser. Bermula pada sebuah link alamat website, dibuka pada browser kemudian browser melakukan permintaan dan mendownload data dari web server melalui protokol HTTP. Setiap hyperlink yang ditemui pada konten yang tampil akan dibuka lagi pada windows/tab browser yang baru, demikian proses terus berulang. bertugas untuk mengumpulkan semua informasi yang ada di dalam halaman web. Web crawler bekerja secara otomatis dengan cara memberikan sejumlah alamat website untuk dikunjungi serta menyimpan semua informasi yang terkandung didalamnya. Setiap kali web crawler mengunjungi sebuah website, maka web crawler tersebut akan mendata semua link yang ada dihalaman yang dikunjunginya itu untuk kemudian di kunjungi lagi satu persatu. Proses web crawler dalam mengunjungi setiap dokumen web disebut dengan web crawling atau spidering. Beberapa websites, khususnya yang berhubungan dengan pencarian menggunakan proses spidering untuk memperbaharui data data mereka. Web crawler biasa digunakan untuk membuat salinan secara sebagian atau keseluruhan halaman web yang telah dikunjunginya agar dapat di proses lebih lanjut oleh system pengindexan. Crawler dapat juga digunakan untuk proses pemeliharaan sebuah website, seperti memvalidasi kode html sebuah web, dan crawler juga digunakan untuk memperoleh data yang khusus seperti mengumpulkan alamat e-mail.

Web crawler termasuk kedalam bagian software agent atau yang lebih dikenal dengan istilah program bot. Secara umum crawler memulai prosesnya dengan memberikan daftar sejumlah alamat website untuk dikunjungi, disebut sebagai seeds. Setiap kali sebuah halaman web dikunjungi, crawler akan mencari alamat yang lain yang terdapat didalamnya dan menambahkan kedalam daftar seeds sebelumnya. Dalam melakukan prosesnya, web crawler juga mempunyai beberapa persoalan yang harus mampu di atasinya. Permasalahan tersebut mencakup :

  1. Halaman mana yang harus dikunjungi terlebih dahulu.
  2. Aturan dalam proses mengunjungi kembali sebuah halaman.
  3. Performansi, mencakup banyaknya halaman yang harus dikunjungi.
  4. Aturan dalam setiap kunjungan agar server yang dikunjungi tidak kelebihan beban.
  5. Kegagalan, mencakup tidak tersedianya halaman yang dikunjungi, server down, timeout, maupun jebakan yang sengaja dibuat oleh webmaster.
  6. Seberapa jauh kedalaman sebuah website yang akan dikunjungi.
  7. Hal yang tak kalah pentingnya adalah kemampuan web crawler untuk mengikuti.

Perkembangan teknologi web, dimana setiap kali teknologi baru muncul, web crawler harus dapat menyesuaikan diri agar dapat mengunjungi halaman web yang menggunakan teknologi baru tersebut. Proses sebuah web crawler untuk mendata link – link yang terdapat didalam sebuah halaman web menggunakan pendekatan regular expression. Crawler akan menelurusi setiap karakter yang ada untuk menemukan hyperlink tag html (<a>). Setiap hyperlink tag yang ditemukan diperiksa lebih lanjut apakah tag tersebut mengandung atribut nofollow rel, jika tidak ada maka diambil nilai yang terdapat didalam attribute href yang merupakan sebuah link baru. Setelah proses crawler selesai di lanjutkan dengan indexing system yang bertugas untuk menganalisa halaman web yang telah tersimpan sebelumnya dengan cara mengindeks setiap kemungkinan term yang terdapat di dalamnnya. Data term yang ditemukan disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya. Indexing system mengumpulkan, memilah dan menyimpan data untuk memberikan kemudahan dalam pengaksesan informasi secara tepat dan akurat. Proses pengolahan halaman web agar dapat digunakan untuk proses pencarian berikutnya dinakamakan web indexing. Dalam implementasinya index system dirancang dari penggabungan beberapa cabang ilmu antara lain ilmu bahasa, psikologi, matematika, informatika, fisika, dan ilmu komputer. Tujuan dari penyimpanan data berupa indeks adalah untuk performansi dan kecepatan dalam menemukan informasi yang relevan berdasarkan inputan user. Tanpa adanya indeks, search engine harus melakukan scan terhadap setiap dokumen yang ada didalam database. Hal ini tentu saja akan membutuhkan proses sumber daya yang sangat besar dalam proses komputasi. Sebagai contoh, indeks dari 10.000 dokumen dapat diproses dalam waktu beberapa detik saja, sedangkan penulusuran secara berurutan setiap kata yang terdapat di dalam 10.000 dokumen akan membutuhkan waktu yang berjam lamanya. Tempat tambahan mungkin akan dibutuhkan di dalam computer untuk penyimpanan indeks, tapi hal ini akan terbayar dengan penghematan waktu pada saat pemrosesan pencarian dokumen yang dibutuhkan.

4.    Web Archiving

A.     Pengertian Web Archiving:

Pengarsipan web adalah proses mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa datang. Besarnya ukuran Web membuat arsiparis web umumnya menggunakan perangkak web untuk pengumpulan secara otomatis. Organisasi pengarsip web terbesar yang menggunakan ancangan perangkak web ini adalah Internet Archive yang berupaya memelihara arsip dari seluruh Web. Perpustakaan nasional, arsip nasional, dan berbagai konsorsium organisasi lain juga terlibat dalam upaya pengarsipan konten Web yang memiliki nilai penting bagi mereka. Perangkat lunak dan layanan komersial juga tersedia bagi organisasi yang ingin mengarsipkan konten web mereka sendiri untuk berbagai keperluan.

B.      Cara Kerja dan Contoh Web Archiving:

Dengan menggunakan web crawler untuk mengoptimatisasi proses pengumpulan halaman web, web crawler biasanya mengakses halaman web dengan cara yang sama dengan yang dilakukan user dengan menggunaakan web browser untuk menemukan website yang diinginkan.

Contoh-contoh Web Archiving:

  1. Archive-it
  2. Archive.is
  3. Archivethe.net
  4. WebCite
  5. Iterasi

NAMA KELOMPOK :

51411913 DESTY PUTRI ARIFIN
52411021 DIAN AYU KEMALA
52411917 FITRI CYNTHIA DEWI
55411585 PRISKYLA VIVI EVYTAVANI
57411900 SYARA SAFRILA
57411507 YERNI EUODIA RAHAYU
 
Tinggalkan komentar

Ditulis oleh pada Mei 5, 2013 in Uncategorized

 

IPTV & RSS

KLIK DISINI UNTUK MENDENGARKAN

Pendahuluan

Pada zaman dahulu, masyarakat sudah cukup puas dengan teknologi telegram yang hanya mampu memberikan pesan tertulis. Kemudian seiring dengan berkembangnya teknologi, masyarakat dimanjakan dengan teknologi yang dapat mengeluarkan suara seperti radio dan telefon. Tidak cukup sampai di sana, perkembangan teknologi juga mampu memberikan masyarakat layanan yang dapat mengeluarkan suara dan gambar seperti televisi dan telefon video.
Silahkan Baca Lebih lanjut

 
Tinggalkan komentar

Ditulis oleh pada Januari 16, 2013 in Uncategorized

 

VR & AR

Bicara tentang kemajuan teknologi memang tidak ada habisnya. Dari dahulu samapi sekarang ada saja istilah-istilah baru. Salah satunya seperti yang satu ini, New Media. Apa sih New Media itu? Sebelum membahas lebih lanjut ada baiknya kita tahu arti dari setiap kata yang membangunnya. Ehemm ,, ‘Media’ sebenarnya merupakan bentuk jamak dari kata medium yang berasal dari bahasa latin. Namun jika dilihat dari sudut pandang harfiah, media / medium mempunyai arti perantara atau pengantar. Dan pengertian secara umum menyimpulkan bahwa media itu adalah segala sesuatu yang dapat menyalurkan informasi (perantara) dari sumber informasi kepada penerima informasi yakni kita-kita ini.Apakah pengertian ‘baru’ disini? baru (new) disini sesuatu yang bersifat inovatif yakni perubahan yang melahirkan sesuatu yang sangat dinantikan semua orang.Oleh karena itu, New Media adalah media baru sebagai produk teknologi informasi dan komunikasi sekarang dan mendatang bersama-sama dengan komputer digital. Mereka (new media) meninggalkan teknologi yang masih bersifat analog, mekanik, boros energi, tidak ramah lingkungan dan yang pasti masih menggunakan teknologi yang rendah alias jadul.

Perkembangan teknologi komunikasi dan informasi juga berpengaruh kepada paradigma masyarakat saat ini yang mengubah keseluruhan cara pandang tentang berbagai masalah dan persoalan yang dihadapi. Contohnya dalam hal media massa yang sudah dikenal dengan RSS Feed. Dan lagi-lagi ini berkaitan dengan internet / bersifat jaringan. Masyarakat yang mendapatkan informasi lewat RSS Feed berarti sudah memanfaatkan new media. Yang RSS Feed sendiri adalah berita / informasi yang disampaikan dan ditampilkan dengan berlangganan di suatu situs sumber informasi.

Manfaat media yang begitu kompleks nan luas yaitu memudahkan seseorang untuk mendapatkan sesuatu dan bukan hanya informasi tetapi yang kita cari tanpa perlu repot lagi. Media juga mengantarkan taraf hidup manusia mejadi lebih mudah. Media juga tak bisa lepas dari peran teknologi yang maju saat ini, tanpa teknologi media takkan berarti apa-apa.

Selain teknologi, new media juga tidak bisa dipisahkan dengan dunia digital. Ini disebabkan sebagian besar new media di dominasi oleh produk berteknologi digital yang seringkali memiliki karakteristik dapat dimanipulasi, bersifat jaringan, padat, mudah, interaktif dan tidak memihak. Contohnya internet, dari internet saja kita bisa mengambil banyak manfaat dari sana. Termasuk yang lagi tren saat ini yakni jejaring sosial macam facebook dan twitter. Komponen – komponen dari new media terdiri dari pembuat, penyalur dan juga pemakai dari new media itu sendiri.

Berikut ini adalah contoh teknologi apa saja yang termasuk media baru yaitu :

    • Internet
    • Televisi Digital / Plasma TV
    • Digital Cinema / 3D Cinema
    • Superkomputer / Laptop
    • DVD / CD / Blue Ray
    • MP3 Player
    • Ponsel / PDA Phone
    • Video Game
    • RSS Feed
    • Streaming Video
    • Dan lain-lain

Sumber :

http://safemode.web.id/artikel/teknologi/new-media

Ex: for AR

Mini-tanks came out in sequence from a hole in my room wall

Ex: for VR

Kinect hack creates world’s greatest shadow puppet

PENJELASAN:

Pada video AR diatas terdapat sebuah Tang yang keluar melalui sebuah prosesor yang didalamnya sudah dirancang sehingga dapat menampilkan sebuah gambar Tang berbentuk 3D dan bergerak saat terekam oleh kamera HP atau webcame,lalu pada video VR diatas terdapat seorang wanita yang menggunakan tangannya sebagai sebuah sensor untuk membuat animasi 3D sebuah burung yang telah diprogram dalam sebuah laptop tersebut

 
Tinggalkan komentar

Ditulis oleh pada Oktober 11, 2012 in Uncategorized

 

Keunikan Pengikatan Kaki di China (Chinese Foot Binding)

Kaki hasil foot binding. Dari kaki berukuran normal menjadi sangat pendek/kecil

Foot Binding atau pengikatan kaki adalah tradisi menghentikan pertumbuhan kaki perempuan zaman dahulu yang terjadi di China. Tradisi ini telah menghadirkan penderitaan besar bagi para perempuan China pada masa itu. Pengikatan kaki biasanya dimulai sejak anak berumur antara empat sampai tujuh tahun. Masyarakat miskin biasanya terlambat memulai pengikatan kaki karena mereka membutuhkan bantuan anak perempuan mereka dalam mengurus sawah dan perkebunan.

Pengikatan kaki dilakukan dengan cara membalut kaki dengan ketat menggunakan kain sepanjang sepuluh kaki dengan lebar dua inchi, melipat empat jari kaki ke bagian bawah kaki dan menarik ibu jari kaki medekati tumit. Silahkan Baca Lebih Lanjut

 
Tinggalkan komentar

Ditulis oleh pada Juni 30, 2012 in Uncategorized