Microsoft cho biết họ không có kế hoạch thương mại hoá những con chip này, mà sẽ phục vụ nhu cầu nội bộ trên sản phẩm phần mềm, cũng như một phần dịch vụ điện toán đám mây Azure.
Microsoft và những gã khổng lồ công nghệ khác như Alphabet (Google) đang phải vật lộn với chi phí cung cấp dịch vụ AI cao, có thể gấp hơn 10 lần so với các dịch vụ truyền thống như công cụ tìm kiếm. Tự sản xuất chip đang là xu thế của các doanh nghiệp công nghệ để cắt giảm chi phí AI đắt đỏ.
Các giám đốc điều hành của Microsoft cho biết họ có kế hoạch giải bài toán chi phí AI tăng cao bằng cách sử dụng mô hình nền tảng chung để tích hợp AI sâu rộng vào toàn bộ hệ sinh thái phần mềm. Và chip Maia ra đời để tối ưu công việc đó.
Chip Maia được thiết kế để chạy các mô hình ngôn ngữ lớn (LLM), nền tảng cho dịch vụ Azure OpenAI - sản phẩm hợp tác giữa Microsoft và công ty sở hữu ChatGPT.
“Chúng tôi nghĩ rằng điều này có thể cung cấp các giải pháp tốt hơn cho khách hàng của mình với tốc độ nhanh hơn, chi phí thấp hơn và chất lượng cao hơn”, Scott Guthrie, Phó Chủ tịch điều hành bộ phận đám mây và AI của Microsoft cho hay.
Microsoft cũng cho biết, vào năm tới họ sẽ cung cấp cho khách hàng Azure các dịch vụ đám mây chạy trên những con chip hàng đầu mới nhất của Nvidia và Advanced Micro Devices (AMD). Hiện tập đoàn đang thử nghiệm GPT-4 trên chip của AMD.
Con chip thứ hai có tên mã Cobalt, được Microsoft ra mắt để tiết kiệm chi phí nội bộ, đồng thời cạnh tranh với dịch vụ đám mây AWS của Amazon, vốn sử dụng con chip tự thiết kế “Graviton”.
Cobalt là bộ xử lý trung tâm (CPU) sản xuất theo công nghệ của Arm, hiện đang được thử nghiệm để hỗ trợ phần mềm nhắn tin doanh nghiệp Teams.
Đại diện AWS cho biết, chip Graviton của họ hiện đang có khoảng 50.000 khách hàng và công ty này cũng sẽ tổ chức hội nghị các nhà phát triển vào cuối tháng này.
"AWS sẽ tiếp tục đổi mới để cung cấp các thế hệ chip tự thiết kế trong tương lai nhằm mang lại hiệu suất về giá thậm chí còn tốt hơn, cho bất kỳ khối lượng công việc nào khách hàng yêu cầu", trích tuyên bố của đại diện AWS sau khi Microsoft công bố bộ đôi chip AI.
Rani Borkar, Phó Chủ tịch tập đoàn phụ trách hệ thống phần cứng và cơ sở hạ tầng Azure cho biết, cả hai con chip mới đều được sản xuất trên tiến trình 5nm của TSMC.
Trong đó, Maia được kết hợp với cáp mạng Ethernet tiêu chuẩn, thay vì sử dụng công nghệ mạng Nvidia tuỳ chỉnh đắt tiền hơn mà Microsoft đã sử dụng trong các siêu máy tính xây dựng cho OpenAI.
Nguyệt Thu
(theo reuters.com)
10:00 | 05/10/2023
08:00 | 12/01/2024
14:00 | 11/10/2023
19:00 | 30/04/2024
Công ty được mệnh danh là “Google của Trung Quốc” - Baidu cho biết chatbot AI của hãng này, Ernie Bot đã có hơn 200 triệu người dùng trong bối cảnh cạnh tranh ngày càng khốc liệt.
11:00 | 26/04/2024
Apple đang đàm phán để sử dụng công cụ Gemini AI của Google trên iPhone, tạo tiền đề cho một thỏa thuận mang tính đột phá trong ngành công nghiệp AI.
21:00 | 01/04/2024
Trong tháng 3, ông Won-Kyun Cho, Giám đốc quốc gia của Fortinet Hàn Quốc đại diện cho Fortinet - một trong những công ty hàng đầu thế giới về kiến tạo và thúc đẩy sự hội tụ của mạng và bảo mật và CEO Sung-An Choi, đại diện cho Samsung Heavy Industries - công ty hàng đầu thế giới trong ngành đóng tàu, mới đây đã thông báo hai bên chính thức ký kết Biên bản ghi nhớ đánh dấu hợp tác trong lĩnh vực an ninh mạng hàng hải.
08:00 | 12/03/2024
Hai lỗ hổng lần lượt có mã định danh CVE-2024-24401 và CVE-2024-24402 được tìm thấy trong Nagios XI - một công cụ giám sát hạ tầng mạng trong doanh nghiệp. Đáng lưu ý, cả hai lỗ hổng đều chưa có điểm CVSS.
Oracle dự kiến sẽ đầu tư 1.200 tỷ Yen (khoảng 8 tỷ USD) trong 10 năm, bắt đầu từ năm nay, để mở rộng các trung tâm dữ liệu của mình tại Nhật Bản. Thông báo này được hãng đưa ra vào ngày 18/4 vừa qua, cơ sở chủ yếu ở hai khu vực mà Oracle hiện đang vận hành các trung tâm dữ liệu là Tokyo và Osaka.
10:00 | 26/04/2024