Trong ngày 5/5, thị trường AI có hai chuyển động đáng chú ý. Anthropic và OpenAI cùng đặt cược vào mô hình triển khai AI như dịch vụ tư vấn với liên doanh Wall Street trị giá hàng tỷ đô. Song song đó, Mistral ra mắt mô hình lập trình mã nguồn mở không cần phụ thuộc vào OpenAI hay Anthropic.
1. Anthropic và OpenAI đồng loạt lập liên doanh AI doanh nghiệp
Ngày 4/5, Anthropic và OpenAI đồng loạt ra mắt hai liên doanh độc lập để triển khai AI trong doanh nghiệp.
Liên doanh của Anthropic được định giá 1,5 tỷ USD, với Blackstone, Goldman Sachs và Hellman & Friedman mỗi bên cam kết 300 triệu USD. Ngoài ra liên doanh này còn có sự tham gia của Apollo Global Management, Sequoia Capital, General Atlantic, GIC và Leonard Green Partners. Sau đó vài giờ, OpenAI công bố liên doanh mang tên “The Deployment Company“: huy động 4 tỷ USD từ 19 nhà đầu tư, định giá 10 tỷ USD, với sự tham gia của TPG, Brookfield Asset Management, Advent và Bain Capital trong danh sách.
Điểm chung nằm ở mô hình vận hành. Cả hai liên doanh không đơn giản bán phần mềm hay API. Họ cử kỹ sư trực tiếp vào doanh nghiệp để thiết kế lại quy trình và tích hợp AI vào các hoạt động cốt lõi. Đổi lại, Blackstone, TPG và các quỹ lớn nhận quyền “ưu tiên tiếp cận” để đưa AI vào toàn bộ danh mục đầu tư bao gồm hàng trăm công ty cùng lúc. Đây là mô hình cạnh tranh trực tiếp với McKinsey, Deloitte và Boston Consulting Group.
Hiện hai bên đều đang chuẩn bị IPO: OpenAI huy động 122 tỷ USD cho mức định giá 852 tỷ USD, còn Anthropic đang trong giai đoạn cuối tìm kiếm 50 tỷ USD cho mức định giá 900 tỷ USD.
Nguồn: TechCrunch
Ghi chú thuật ngữ
- API: Giao diện lập trình ứng dụng – cách phần mềm kết nối và sử dụng dịch vụ AI từ bên ngoài, thường tính phí theo lượng dữ liệu xử lý.
- IPO: Lần đầu phát hành cổ phiếu ra công chúng, thường đi kèm giai đoạn tăng tốc doanh thu và mở rộng quy mô trước đó.
2. Mistral Medium 3.5 và Vibe Remote Agents: agent lập trình đám mây từ mô hình mã nguồn mở
Ngày 2/5, Mistral AI ra mắt Medium 3.5 – mô hình 128 tỷ tham số (dense, không phải MoE) gộp ba sản phẩm riêng biệt trước đây Medium 3.1, Magistral và Devstral 2 vào một bộ trọng số duy nhất.
Về hiệu suất: 77,6% trên SWE-bench Verified, ngang tầm với các mô hình đóng hàng đầu trong kiểm thử lập trình thực tế. Giá API: 1,5 USD cho 1 triệu token đầu vào và 7,5 USD cho 1 triệu token đầu ra, thấp hơn đáng kể so với các mô hình đóng cùng tầm hiệu suất. Context window là 256.000 token. Mã nguồn mở hoàn toàn theo giấy phép MIT. Người dùng có thể điều chỉnh thông số reasoning_effort để cân bằng giữa độ chính xác và chi phí AI suy luận theo từng yêu cầu.
Điểm nhấn thực sự là Vibe Remote Agents – hệ thống agent lập trình chạy hoàn toàn trên đám mây, không cần máy local. Thay vì giám sát từng bước, người dùng có thể giao task, sau đó agent làm việc trong nền và tự mở Pull Request trên GitHub khi hoàn tất. Nhiều session có thể chạy song song. Hệ thống tích hợp sẵn với GitHub, Linear, Jira, Sentry, Slack và Teams.
So với OpenAI Codex, cả hai đều là agent lập trình đám mây chạy bất đồng bộ. Khác biệt chính nằm ở chỗ Medium 3.5 là mã nguồn mở và tự host được, doanh nghiệp có thể chạy toàn bộ hệ thống trên hạ tầng riêng mà không phụ thuộc vào server của OpenAI hay Anthropic.
Nguồn: The Decoder
Ghi chú thuật ngữ
- SWE-bench Verified: Thước đo khả năng AI giải quyết lỗi phần mềm thực tế từ các dự án GitHub nổi tiếng.
- Dense model: Mô hình kích hoạt toàn bộ tham số cho mỗi truy vấn, khác với MoE chỉ kích hoạt một phần.
- MoE (Mixture of Experts): Kiến trúc mô hình kích hoạt có chọn lọc từng nhóm tham số theo từng yêu cầu, giảm chi phí AI suy luận so với dense model cùng tổng số tham số.
- Pull Request: Đề xuất thay đổi code trong hệ thống quản lý phiên bản, cần được rà soát trước khi hợp nhất vào codebase chính.
- MIT license: Giấy phép mã nguồn mở cho phép sử dụng thương mại tự do với ràng buộc tối thiểu.
- Context window: Lượng văn bản tối đa mô hình có thể đọc và xử lý trong một lần.
- Reasoning_effort: Thông số điều chỉnh mức độ suy luận sâu của mô hình.
