Ba lý do khiến AI ngày nay đáng tin cậy hơn trước đây

ly do AI
Ba lý do khiến AI ngày nay đáng tin cậy hơn trước đây
Sự cải thiện đáng kể trong độ tin cậy của các hệ thống AI hiện đại không đến từ việc các mô hình ngôn ngữ lớn (LLM) đột nhiên ngừng bịa đặt thông tin, mà đến từ cách các kỹ sư đã xây dựng thêm lớp hệ thống hỗ trợ bao quanh chúng.

Nếu anh em đang dùng Claude, ChatGPT hay Gemini hằng ngày và cảm thấy chúng ngày càng “đáng tin” hơn trước, thì cảm giác đó không hề sai. Nhưng lý do đằng sau thú vị hơn nhiều so với việc AI đơn giản là trở nên thông minh hơn. Về bản chất, các mô hình ngôn ngữ lớn vẫn hoạt động theo cơ chế dự đoán xác suất, và về mặt lý thuyết, chúng vẫn có thể bịa ra thông tin sai một cách rất tự tin. Điều thay đổi là lớp hệ thống bao quanh chúng, cái mà các kỹ sư đã dày công xây dựng trong vài năm qua để bù đắp cho những điểm yếu cố hữu này.

Hình dung một cách đơn giản thì bộ não của AI vẫn còn “mơ hồ” theo thiết kế, nhưng cái kính, cái máy tính, và người đọc soát lỗi xung quanh nó đã trở nên tốt hơn rất nhiều. Và điều này được chỉ ra từ vụ rò rỉ mã nguồn đến từ Claude.

Không lâu trước đây, mã nguồn của Claude Code, công cụ lập trình hàng đầu của Anthropic, đã vô tình bị lộ ra ngoài. Claude Code là một trong những lý do chính khiến Claude được giới công nghệ tại Silicon Valley ưa chuộng, và cũng là một phần quan trọng trong lộ trình đưa Anthropic đến điểm hoà vốn trước OpenAI.

Điểm quan trọng cần hiểu rõ là vụ rò rỉ này không tiết lộ “bộ não” của Claude, tức là các tham số và trọng số của mô hình neural, thứ thực sự tạo nên trí tuệ của hệ thống. Không ai có thể sao chép Claude từ đây. Thứ bị lộ ra là phần mã nguồn điều phối hoạt động của hệ thống, thứ mà các nhà nghiên cứu gọi là khung giàn giáo, bao gồm cách hệ thống gọi công cụ bên ngoài, cách nó quản lý bộ nhớ ngữ cảnh của cuộc trò chuyện, và cách nó tổ chức các bước xử lý để giảm thiểu sai sót.

ai-2.jpeg
Vụ rò rỉ mã nguồn Claude Code tiết lộ khá nhiều thứ về AI

Himanshu Dubey, nhà nghiên cứu AI người Ấn Độ, người đã phân tích mã nguồn bị rò rỉ này, mô tả Claude Code như một hệ thống được xây dựng hầu hết từ “lập trình truyền thống” rất kỳ công bên dưới lớp bề mặt AI. Có một đoạn mã chuyên biệt để quản lý bộ nhớ ngắn hạn, giúp cuộc trò chuyện dài không bị “quá tải” ngữ cảnh, vì ngữ cảnh quá dài là một trong những nguyên nhân chính khiến AI bịa đặt thông tin nhiều hơn. Thậm chí còn có một đoạn script phát hiện khi nào người dùng đang tức giận, bằng cách quét các từ ngữ thô tục trong tin nhắn. Đó là những hành vi rất con người được viết cứng vào hệ thống.

Vụ rò rỉ này không nguy hiểm theo nghĩa ai đó có thể ăn cắp Claude. Nhưng nó lại rất giá trị theo nghĩa khác: nó cho thấy AI hiện đại không đơn thuần là “một mô hình lớn” mà là cả một kiến trúc kết hợp, trong đó mô hình ngôn ngữ chỉ là một thành phần trong số nhiều thành phần cộng tác với nhau. Và nó cũng cho thấy ba lý do khiến AI ngày một đáng tin cậy hơn.

Vài năm trước, khi các mô hình ngôn ngữ lớn còn trong giai đoạn sơ khai, dữ liệu huấn luyện chủ yếu đến từ những gì đã có sẵn trên internet, sách, website, mạng xã hội, video. Nguồn dữ liệu đó rộng nhưng không chuyên sâu, và phần lớn không được thiết kế để dạy AI cách suy luận trong các lĩnh vực chuyên môn cụ thể.

Ngày nay, có cả một ngành công nghiệp được hình thành chỉ để tạo ra dữ liệu huấn luyện chất lượng cao cho AI. Các startup được định giá hàng tỷ đô la chuyên thuê các chuyên gia trong nhiều lĩnh vực như y tế, tài chính, luật, khoa học để viết và đánh giá các mẫu câu trả lời cho những câu hỏi phức tạp. Đây là công việc được trả theo giờ, và hàng nghìn người đang làm điều này mỗi ngày. Anthropic cho biết các khách hàng của họ liên tục yêu cầu AI trung thực hơn và ít bịa đặt hơn, và một trong những hướng tiếp cận là nghiên cứu lý do tại sao mô hình lại “tự tin bịa đặt”, từ đó điều chỉnh quá trình huấn luyện để hệ thống biết nhận ra giới hạn hiểu biết của mình và nói thẳng ra điều đó.

ai-1.jpg

AI được huấn luyện với các tập dữ liệu chất lượng hơn
Đại diện Anthropic chia sẻ rằng điểm Claude được đánh giá cao nhất trong các bài kiểm tra độc lập là khả năng “calibration”, tức là biết mình không biết gì và nói thẳng ra điều đó, thay vì cứ trả lời như thể mình chắc chắn.

Song song với việc cải thiện kiến thức nội tại, các hệ thống AI hiện nay còn được tích hợp khả năng tìm kiếm thông tin theo thời gian thực, tương tự như cách con người tra Google khi cần. Điều này dẫn đến sự xuất hiện của một mảng kinh doanh mới: các công ty chuyên thu thập kết quả tìm kiếm từ Google và cung cấp dữ liệu đó cho các hệ thống AI theo thời gian gần như thực. Kết quả là AI không còn bị giới hạn bởi thời điểm nó được huấn luyện lần cuối. OpenAI công bố rằng trong hai năm qua, kể từ khi ra mắt GPT-4o, mô hình mới nhất của họ đã giảm 26% số lỗi thực tế so với trước đây.

Có một cuộc tranh luận dai dẳng trong giới nghiên cứu AI: liệu một hệ thống được mô phỏng theo cách hoạt động của hệ thần kinh con người có thể thực sự đạt đến năng lực của con người hay không? Câu trả lời cho đến nay vẫn là “chưa”, và lý do liên quan đến một điểm mà AI truyền thống vốn yếu, đó là toán học và suy luận logic chặt chẽ.

Con người không chỉ đơn thuần đoán câu trả lời. Từ thuở bình minh của chữ viết, chúng ta đã biết dùng ký hiệu và con số để tính toán chính xác, thứ mà các nhà khoa học gọi là “symbolic reasoning”. Điểm thú vị là, những chữ viết sớm nhất của loài người được tìm thấy không phải là thơ ca hay triết học, mà là sổ sách kế toán.

Các mô hình AI thế hệ đầu sẽ cố gắng “đoán” đáp án của bài toán dựa trên xác suất từ dữ liệu huấn luyện, thay vì thực sự tính toán. Điều đó có nghĩa là chúng có thể trả lời sai ngay cả những phép tính đơn giản theo những cách rất phi lý. Ngày nay, điều đó đã thay đổi. AI hiện đại nhận ra khi nào một yêu cầu đòi hỏi phép tính, và thay vì đoán, chúng sẽ gọi một công cụ tính toán bên ngoài, hoặc tự viết đoạn code để thực hiện phép tính đó và trả về kết quả chính xác.

ai-3.jpeg

Và với việc xây dựng giàn giáo mạnh mẽ, AI đã trở nên tin cậy hơn trước

Gary Marcus, nhà nghiên cứu AI và cũng là người hay phê bình xu hướng thổi phồng khả năng của AI, nhận xét rằng bản thân các mô hình ngôn ngữ thì về cơ bản vẫn thiếu tin cậy như trước. Nhưng đặc biệt trong các lĩnh vực như toán học và lập trình, người ta có thể chuyển đầu ra của LLM sang các công nghệ khác, những thứ từng bị xem là lỗi thời nhưng thực ra rất hữu ích. Ông cũng khen ngợi các hệ thống như Claude Code vì khả năng kết hợp LLM với thế giới toán học cứng nhắc, chính xác của code máy tính.

Chính ở đây, mã nguồn bị rò rỉ của Claude Code trở nên thú vị. Bên trong là một hệ thống quản lý bộ nhớ ngữ cảnh tinh vi, giúp các cuộc hội thoại dài không bị “ngộp” thông tin, vì ngữ cảnh quá dài là một trong những nguyên nhân chính làm tăng tỷ lệ bịa đặt và giảm hiệu quả của các cơ chế an toàn. Đây là sự kết hợp kiểu rất con người, bộ não sáng tạo và linh hoạt đặt cạnh chiếc máy tính bỏ túi đáng tin cậy.

Trong giai đoạn đầu, các chatbot trả lời câu hỏi gần như ngay lập tức, xuất chữ liên tục mà không có bước dừng lại để suy nghĩ. Ngày nay, với hầu hết các câu hỏi không đơn giản, AI sẽ thực hiện một bước gọi là chuỗi suy nghĩ: hệ thống sẽ tự “trò chuyện với chính mình” để kiểm tra lập luận trước khi đưa ra câu trả lời cuối cùng. Bước nội suy này giúp phát hiện nhiều lỗi trước khi chúng đến tay người dùng.

ai-5.jpeg
LLM Council

Một số hệ thống còn đi xa hơn: chúng dùng một mô hình AI khác, thường là biến thể của chính mình, để kiểm tra lại đáp án. Điều này không chỉ dừng lại trong phạm vi một công ty nữa. Khi các doanh nghiệp xây dựng hệ thống AI cho nhu cầu nội bộ, họ có thể cấu hình để kết quả từ một nhà cung cấp AI này được kiểm tra chéo bởi mô hình từ nhà cung cấp khác hoàn toàn, chẳng hạn Claude kiểm tra kết quả của ChatGPT, hoặc ngược lại. Kết quả chỉ được chấp nhận khi cả hai mô hình đồng ý với nhau.

Pavel Kirillov, Giám đốc Công nghệ của NineTwoThree, một công ty tư vấn xây dựng hệ thống AI cho các khách hàng như FanDuel và Consumer Reports, gọi cách tiếp cận này là “council of models”, lược dịch: hội đồng mô hình. Theo ông, kết quả thu được có chất lượng tốt hơn rõ rệt, với tỷ lệ lỗi thấp hơn so với khi chỉ dùng một mô hình duy nhất.

Các mô hình AI cốt lõi ngày nay thông minh hơn so với vài năm trước, nhưng lý do chính khiến các dịch vụ AI trở nên hữu ích hơn rõ rệt là vì chúng được trang bị thông tin cập nhật hơn, biết dùng công cụ phù hợp, và có cơ chế tự kiểm soát lẫn nhau. Đây không phải là lý trí kiểu con người, mà là thứ thực dụng hơn nhiều: những nhà phát triển AI nhận ra rằng các hệ thống của họ không thể làm tốt mọi thứ một mình, và bắt đầu trang bị cho chúng những công cụ mà loài người đã mất hàng nghìn năm để tạo ra.

Vụ rò rỉ mã nguồn Claude Code không phải là một thảm họa bảo mật theo nghĩa thông thường, nhưng nó là một lời nhắc nhở thú vị rằng AI hiện đại không phải là phép màu. Đằng sau giao diện chat đơn giản là cả một hệ thống kỹ thuật phức tạp, được xây dựng công phu để bù đắp cho những giới hạn vốn có của mô hình ngôn ngữ. Và chính lớp kỹ thuật đó mới là thứ đang thay đổi nhanh nhất.

Đánh giá post

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *