Amazon Web Services tetap menggunakan AMD untuk instans memori generasi berikutnya yang dioptimalkan di EC2.
Instans R6a bertenaga Epyc Milan, diumumkan hari inilebih dari dua kali lipat kapasitas memori dan bandwidth jaringan, sambil memberikan kinerja 35 persen lebih tinggi daripada instans generasi sebelumnya, klaim raksasa cloud tersebut.
Keluarga instans R6a tersedia dalam 11 varietas mulai dari R6a.large rendah, yang memasangkan dua vCPU dengan memori 16 GB dan bandwidth jaringan 12,5 Gbit/dtk, hingga R6a.48xlarge dan R6a.metal di kelas atas, yang menawarkan 192 vCPU, RAM 1,5 TB, dan jaringan 50 Gbit/dtk.
Seperti instans R5a yang diganti, VM dirancang untuk aplikasi yang sangat intensif memori. Contohnya termasuk database relasional dan noSQL; cache dalam memori skala web terdistribusi, seperti memcache dan Redis; dan database dalam memori, seperti cluster Hadoop dan Spark. Instans juga disertifikasi untuk digunakan dengan beban kerja SAP di luar gerbang.
Semua instans dibuat di Nitro smartNIC Amazon, yang mempercepat beban kerja intensif input/output — umum dalam aplikasi jaringan, penyimpanan, dan keamanan — dengan memindahkannya ke prosesor khusus domain khusus dalam silikon. Ini memiliki keuntungan membebaskan sumber daya CPU untuk menjalankan beban kerja penyewa.
Instans ini juga memanfaatkan Adaptor Kain Elastis Amazon, yang menyediakan hingga 40 Gbit/dtk konektivitas berkecepatan tinggi ke node lain dan sumber daya penyimpanan blok.
Sebagian besar peningkatan kinerja yang diklaim oleh AWS pada generasi ini dapat dikaitkan dengan peningkatan instruksi per jam dan frekuensi dalam prosesor Eypc generasi ketiga AMD. Ini memungkinkan keluarga Zen untuk mencapai hasil yang kasar 19 persen peningkatan kinerja dibandingkan chip Roma generasi kedua.
Dalam hal ini, AWS tampaknya menggunakan AMD Epyc 7643 — bagian 48-core/96-thread dengan clock dasar 2,3GHz dan clock boost maksimum 3,6GHz, dalam kondisi pengoperasian yang ideal.
Hingga baru-baru ini, AMD memiliki keunggulan dalam kepadatan memori, membanggakan dukungan untuk delapan saluran memori — dua lebih banyak dari Intel Xeon Scalable generasi kedua — yang beroperasi pada 3200 mega-transfer per detik. Intel menutup celah ini dengan peluncuran prosesor Ice Lake Xeon Scalable awal tahun lalu.
Namun, tidak seperti Intel, AMD Milan CPU kompatibel dengan pembaruan BIOS — dengan papan server Epyc 2 yang lebih lama, yang mungkin memengaruhi keputusan AWS untuk tetap menggunakan AMD.
Selain kinerja yang lebih tinggi, AWS juga mengutip dukungan untuk enkripsi memori satu kunci transparan AMD, yang mengenkripsi data dalam memori fisik, sebagai fitur utama pada instans baru.
Instans R6a AWS tersedia sekarang di wilayah raksasa cloud AS Timur dan Barat, Asia Pasifik, dan Eropa ®.