top of page

Samsung ra mắt chip nhớ AI HBM3E 12 lớp với tốc độ xử lý dữ liệu kinh ngạc



Hôm thứ Ba (27/2), Samsung Electronics thông báo đã thành công phát triển DRAM HBM3E 12H 36GB đầu tiên trong ngành, tự hào có tốc độ xử lý dữ liệu nhanh nhất trong số các chip nhớ AI. Sự phát triển mới này dự kiến sẽ giúp nhà sản xuất chip nhớ lớn nhất thế giới vượt qua đối thủ SK hynix trong ngành chip nhớ AI và giành được vị thế thuận lợi trong thị trường HBM.


HBM - viết tắt của High Bandwidth Memory (Bộ nhớ băng thông cao) -  là một chất bán dẫn bộ nhớ giúp cách mạng hóa tốc độ xử lý dữ liệu bằng cách kết nối nhiều DRAM theo chiều dọc. Băng thông của chip nhớ càng cao thì đường dẫn dữ liệu càng rộng, do đó tăng khả năng xử lý đồng thời khối lượng dữ liệu lớn hơn. HBM3E đại diện cho thế hệ thứ năm của DRAM HBM.


Samsung cho biết DRAM HBM3E 12 lớp có băng thông tối đa 1.280 GB/giây và dung lượng 36 GB, cao nhất trong số các chip HBM hiện có. Không chỉ thành công trong việc phát triển sản phẩm, Samsung cũng đã cung cấp mẫu cho khách hàng và dự định bắt đầu sản xuất hàng loạt trong nửa đầu năm nay.


Với việc các dịch vụ AI tổng hợp ngày càng được sử dụng rộng rãi, nhu cầu về DRAM hiệu suất cao tại các trung tâm dữ liệu đòi hỏi xử lý nhanh chóng các bộ dữ liệu lớn đang tăng vọt. SK hynix dẫn đầu thị trường này, chiếm 50% thị phần trong số các nhà sản xuất chip nhớ vào năm ngoái.


Cùng đó, Micron - đối thủ của Samsung ở Hoa Kỳ - cũng tuyên bố sẽ bắt đầu sản xuất hàng loạt HBM3E. Dự kiến ​​sẽ có cuộc cạnh tranh gay gắt giữa các nhà sản xuất chip nhớ đang tranh giành vị thế thống trị trong thị trường chip nhớ AI.



SK hynix bắt đầu sản xuất hàng loạt HBM3E tám lớp vào đầu năm nay. Sản phẩm này dự kiến ​​sẽ được áp dụng cho GPU của Nvidia, dự kiến ​​phát hành vào quý 2 và công ty cũng đang phát triển sản phẩm 12 lớp.


Samsung cho biết HBM3E mới của hãng cung cấp hiệu suất và dung lượng cải thiện, vượt qua phiên bản trước (HBM3) hơn 50%. Ông Bae Yong-cheol - Phó chủ tịch điều hành mảng lập kế hoạch sản phẩm bộ nhớ tại Samsung cho biết: “Các nhà cung cấp dịch vụ AI trong ngành ngày càng yêu cầu HBM có dung lượng cao hơn và sản phẩm HBM3E 12H mới của chúng tôi được thiết kế để đáp ứng nhu cầu đó. Giải pháp lưu trữ mới này là nền tảng cho những nỗ lực của chúng tôi nhằm phát triển các công nghệ cốt lõi cho HBM xếp chồng cao và thiết lập vị thế dẫn đầu về công nghệ trong thị trường HBM dung lượng cao trong kỷ nguyên AI".


Công ty đặc biệt nhấn mạnh rằng sản phẩm này sẽ mang lại hiệu quả tiết kiệm chi phí cho các công ty trung tâm dữ liệu sử dụng nhiều chip nhớ AI. "Việc sử dụng sản phẩm này, tự hào có hiệu suất và dung lượng tăng lên, giúp giảm lượng sử dụng GPU, cho phép các công ty tiết kiệm tổng chi phí sở hữu (TCO) và quản lý tài nguyên linh hoạt", Samsung cho biết.


"Ví dụ, khi một hệ thống máy chủ sử dụng HBM3E 12H, dự kiến ​​sẽ tăng tốc độ huấn luyện AI trung bình 34% so với HBM3 8H. Ngoài ra, trong trường hợp suy luận, nó sẽ cung cấp nhiều dịch vụ người dùng AI gấp 11,5 lần", công ty cho biết thêm.


Giang Nguyễn (Theo The Korea Times)

ad1_2.jpg
IMG_7057.GIF
Navigator Business and Finance 2 1x4.jpg
bottom of page