AI News 28/04/2026: AI tự học $1,1 tỷ USD, OpenAI phá độc quyền Azure, Alibaba ra mắt Qwen3.6-27B

Ngày 28 tháng 4, 2026 · ~5 phút đọc

Ba tin tức hôm nay đặt ra ba câu hỏi khác nhau về bức tranh AI: Kiến trúc LLM có giới hạn không? Ai kiểm soát việc phân phối mô hình? Và cần bao nhiêu tham số để thực sự có hiệu năng tốt?

1. Cha đẻ AlphaGo gọi vốn 1,1 tỷ USD để xây AI học từ kinh nghiệm, không cần dữ liệu con người

David Silver, người đứng sau AlphaGo, AlphaZero và AlphaProof, vừa ra mắt Ineffable Intelligence với vòng gọi vốn đầu tiên trị giá 1,1 tỷ USD, định giá công ty ở mức 5,1 tỷ USD. Đây là vòng gọi vốn đầu tiên lớn nhất trong lịch sử châu Âu, do Sequoia Capital và Lightspeed Venture Partners đồng dẫn đầu, với sự tham gia của Nvidia, Google, DST Global, Index Ventures và Quỹ Sovereign AI của chính phủ Anh.

Mục tiêu của Ineffable là xây dựng “superlearner” – hệ thống AI học thuần túy qua reinforcement learning [tạm dịch: học tăng cường] mà không cần trải qua giai đoạn huấn luyện sơ bộ hay sử dụng dữ liệu con người. Theo Silver, LLM đang bị giới hạn bởi kho kiến thức của loài người: chúng có thể tổng hợp và mở rộng những gì đã biết, nhưng không thể tự khám phá những kiến thức mới. AlphaZero chính là sản phẩm sơ khai nhất đi theo hướng này. Đây là hệ thống AI duy nhất từng đạt trình độ siêu đẳng ở ba môn cờ vua, cờ vây và cờ shogi chỉ từ việc tự chơi, không dùng bất kỳ ván cờ nào của con người.

Các hệ số đánh giá đầu tiên về Ineffable dự kiến được công bố vào cuối năm 2026.

Nguồn: TechCrunch

2. OpenAI phá thỏa thuận độc quyền với Microsoft – GPT sắp có mặt trên AWS và các nền tảng đám mây khác

Ngày 27/4, Microsoft và OpenAI tái cơ cấu quan hệ hợp tác. Theo điều khoản mới: Microsoft nhận giấy phép không độc quyền đối với tài sản trí tuệ của OpenAI đến năm 2032; OpenAI được tự do bán sản phẩm và API trên mọi nền tảng đám mây, bao gồm AWS, Google Cloud và các nhà cung cấp khác. Microsoft dừng trả phần trăm doanh thu cho OpenAI; ngược lại, OpenAI tiếp tục trả ngược cho Microsoft đến 2030 theo mức trần. CEO của Amazon đã xác nhận các mô hình của OpenAI sẽ sớm có mặt trên AWS.

Quyết định này được đưa ra trong bối cảnh điều khoản độc quyền cũ đang trực tiếp chặn hợp đồng 50 tỷ USD giữa OpenAI và Amazon. Thậm chí, Financial Times từng đưa tin Microsoft cân nhắc kiện cả hai bên vì vi phạm thỏa thuận. Thỏa thuận mới giải quyết rủi ro pháp lý này và chính thức xác nhận OpenAI không còn là tài sản riêng của Azure.

Sự cạnh tranh giữa nhiều nền tảng đám mây để phân phối cùng một mô hình sẽ tăng áp lực phải giảm giá API và cải thiện điều khoản dịch vụ. Đồng thời, doanh nghiệp đang dùng AWS sẽ sớm tích hợp được GPT trực tiếp mà không cần chuyển hướng qua Azure.

Nguồn: TechCrunch

3. Alibaba ra mắt mô hình Qwen3.6-27B 27 tỷ tham số, mã nguồn mở hoàn toàn

Alibaba vừa phát hành Qwen3.6-27B theo giấy phép Apache 2.0: Mô hình kích hoạt toàn bộ 27 tỷ tham số mỗi lần chạy, có thể đọc và xử lý tối đa 262.144 token (mở rộng được lên 1 triệu token) trong một đoạn hội thoại. Đây cũng là mô hình mã nguồn mở đầu tiên tích hợp tính năng duy trì chuỗi suy luận trong quá trình sinh văn bản đầu ra.

Trong bộ kiểm tra đánh giá khả năng giải quyết lỗi phần mềm SWE-bench Verified, Qwen3.6-27B đạt 77,2%, cao hơn mô hình tiền nhiệm Qwen3.5-397B-A17B (76,2%). Trên Terminal-Bench 2.0, mô hình này đạt 59,3%, ngang bằng Claude Opus 4.5. Toàn bộ trọng số mô hình có sẵn miễn phí trên Hugging Face và ModelScope.

Một điểm đáng lưu ý của Qwen3.6-27B là dense model, toàn bộ tham số được kích hoạt mỗi lần suy luận, khác với kiến trúc MoE chỉ kích hoạt từng phần. Điều này giúp mô hình dễ triển khai hơn và dễ tính toán chi phí hơn. Ngoài ra, Qwen3.6-27B có thể chạy hoàn toàn cục bộ, không giới hạn số lượng yêu cầu và không phát sinh chi phí biến thiên.

Nguồn: The Decoder