Khawatir tentang biaya cloud? Sudahkah Anda mencoba menggunakan mesin virtual yang lebih baru?

Chip yang lebih baik, lebih cepat, dan lebih efisien menurunkan biaya pengoperasian cloud dan mendorong harga lebih rendah, menurut penelitian dari standar infrastruktur TI dan grup penasehat, Uptime Institute.

Dengan setiap generasi keluarga prosesor, harga cloud cenderung menurun dengan satu pengecualian penting, Owen Rogers, direktur riset untuk komputasi cloud di Uptime Institute, menjelaskan dalam sebuah tulisan minggu ini.

Penelitian ini melacak harga Amazon Web Services (AWS) di enam generasi CPU AMD dan Intel serta tiga generasi GPU Nvidia menggunakan data yang diperoleh dari API daftar harga penyedia cloud. Sementara Rogers mengakui seri Graviton dari CPU yang kompatibel dengan Arm dari AWS, mereka tidak disertakan dalam pengujian.

Semua pengujian dilakukan di wilayah AS-Timur-1 AWS, namun, Rogers mencatat temuannya harus serupa di semua wilayah AWS.

Dari delapan instans AWS yang dilacak Rogers, mayoritas melihat penurunan harga pelanggan yang stabil dengan setiap generasi CPU berikutnya. Harga untuk instans m-family AWS dari tujuan umum, misalnya, turun 50 persen dari generasi pertama hingga saat ini.

Beberapa instans — khususnya instans yang dioptimalkan penyimpanan AWS — mengalami penurunan harga yang lebih drastis, yang dia kaitkan dengan faktor lain termasuk memori dan penyimpanan.

Tidak mengherankan bahwa kinerja CPU dalam hal ini cenderung meningkat pada setiap generasi, catat Rogers, mengutip berbagai keunggulan kinerja dan efisiensi untuk peningkatan arsitektur dan proses.

Misalnya, keluarga prosesor Epyc Milan generasi ketiga AMD dan keluarga prosesor Xeon Scalable dari Intel Ice Lake mengklaim keunggulan kinerja 19-20 persen dibandingkan chip generasi sebelumnya. Kedua keluarga sekarang tersedia dalam berbagai instans AWS, termasuk instans yang dioptimalkan untuk penyimpanan yang diumumkan minggu lalu.

“Pengguna dapat mengharapkan kecepatan pemrosesan yang lebih tinggi dengan generasi yang lebih baru dibandingkan dengan versi yang lebih lama sambil membayar lebih sedikit. Kesenjangan efisiensi lebih substansial daripada sekadar harga yang disarankan, ”tulisnya, menambahkan bahwa hal itu dapat dilihat dengan jelas dalam harga AWS.

Dengan kata lain, meskipun secara intuitif Anda mungkin berpikir instans berdasarkan teknologi prosesor lama seharusnya lebih murah, instans yang lebih modern dan lebih hemat daya sering kali diberi harga lebih rendah untuk mendorong pengadopsiannya.

“Namun, berapa banyak penghematan biaya yang diberikan AWS kepada pelanggannya versus menambah margin kotornya tetap tersembunyi dari pandangan,” tulisnya.

Beberapa di antaranya dapat dikaitkan dengan kebiasaan membeli pelanggan, khususnya yang mengutamakan biaya daripada kinerja. “Karena tekanan harga ini, harga instans cloud virtual turun,” tulisnya.

Anomali harga GPU

Pengecualian untuk aturan ini adalah instans GPU, yang sebenarnya menjadi lebih mahal di setiap generasi, kata Rogers.

Penelitiannya melacak instans akselerasi GPU g-dan p-series AWS masing-masing selama tiga dan empat generasi, dan menemukan bahwa pertumbuhan kinerja total yang cepat bersamaan dengan meningkatnya beban kerja AI/ML yang menuntut telah memungkinkan penyedia cloud — dan Nvidia — untuk naik harga.

“Pelanggan bersedia membayar lebih untuk instans GPU yang lebih baru jika mereka memberikan nilai untuk dapat menyelesaikan masalah kompleks dengan lebih cepat,” tulisnya.

Beberapa di antaranya dapat dikaitkan dengan fakta bahwa, hingga saat ini, pelanggan yang ingin menerapkan beban kerja pada instans ini harus melakukannya pada GPU khusus, bukan menyewa unit pemrosesan virtual yang lebih kecil. Dan sementara Rogers mencatat bahwa sebagian besar pelanggan lebih suka menjalankan beban kerja mereka dengan cara ini, hal itu mungkin berubah.

Selama beberapa tahun terakhir, Nvidia — yang mendominasi pasar GPU cloud — salah satunya, memperkenalkan fitur yang memungkinkan pelanggan membagi GPU menjadi beberapa unit pemrosesan virtual independen menggunakan teknologi yang disebut Multi-instance GPU atau MIG. Memulai debutnya bersama arsitektur Ampere Nvidia pada awal tahun 2020, teknologi ini memungkinkan pelanggan untuk membagi setiap GPU fisik menjadi hingga tujuh instans yang dapat dialamatkan secara individual.

Dan dengan arsitektur Hopper pembuat chip dan GPU H100, yang diumumkan di GTC musim semi ini, MIG memperoleh isolasi per-instance, virtualisasi I/O, dan multi-tenancy, yang membuka pintu untuk penggunaannya dalam lingkungan komputasi rahasia.

Migrasi migrain tetap ada

Sayangnya bagi pelanggan, memanfaatkan kinerja dan penghematan biaya ini bukannya tanpa risiko. Dalam kebanyakan kasus, beban kerja tidak secara otomatis dipindahkan ke infrastruktur yang lebih baru dan lebih murah, catat Rogers. Pelanggan cloud harus menguji aplikasi mereka pada jenis mesin virtual yang lebih baru sebelum melakukan migrasi massal.

“Mungkin ada masalah interoperabilitas atau waktu henti yang tidak terduga saat migrasi berlangsung,” tulis Rogers, menambahkan: “Sama seperti pengguna merencanakan penyegaran server, mereka perlu menjadikan penyegaran instans virtual sebagai bagian dari pemeliharaan berkelanjutan mereka.”

Dengan mendukung penyedia cloud generasi lama memungkinkan pelanggan untuk meningkatkan dengan kecepatan mereka sendiri, kata Rogers. “Penyedia tidak ingin terlihat memaksa pengguna untuk memigrasikan aplikasi yang mungkin tidak kompatibel dengan platform server baru.” ®

Leave a Comment