Thứ Năm, 31 tháng 7, 2025

Công nghệ nguồn mở trong kỷ nguyên AI


Open source technology in the age of AI

April 22, 2025 | Report

Theo: https://www.mckinsey.com/capabilities/quantumblack/our-insights/open-source-technology-in-the-age-of-ai#/

Bài được đưa lên Internet ngày: 22/04/2025

Với việc ngày càng nhiều tổ chức triển khai AI thế hệ mới trên khắp các chức năng kinh doanh, một khảo sát mới cho thấy các nhà lãnh đạo đang ngày càng chuyển sang các giải pháp AI nguồn mở để xây dựng các ngăn xếp công nghệ của họ.

Báo cáo này là một phần của sự hợp tác nghiên cứu giữa McKinsey, Quỹ Mozilla và Quỹ Patrick J. McGovern.

Phần mềm nguồn mở từ lâu đã là một phần quan trọng của hệ sinh thái công nghệ. Phần mềm thương mại thường yêu cầu giấy phép thương mại hoặc đăng ký và hạn chế quyền truy cập vào công nghệ cốt lõi của nó. Tuy nhiên, các công cụ nguồn mở được phát triển thông qua hợp tác và được cung cấp cho công chúng để sử dụng, sửa đổi và phân phối với ít hạn chế hơn nhiều. Mô hình nguồn mở mang đến cho các nhà phát triển khả năng điều chỉnh và định hình các giải pháp phù hợp với nhu cầu cụ thể của tổ chức họ.

Thời đại AI hiện nay cũng không ngoại lệ. Khi ngày càng nhiều doanh nghiệp xây dựng và triển khai các giải pháp dựa trên AI trên toàn bộ hoạt động kinh doanh của mình, họ đang chuyển sang một loạt các công nghệ nguồn mở ngày càng tăng. Các sản phẩm như vậy bao gồm dòng Llama của Meta, dòng Gemma của Google, dòng OLMo của Viện Trí tuệ Nhân tạo Allen, dòng NeMo của Nvidia, DeepSeek-R1 và Qwen 2.5-Max của Alibaba Cloud—nhiều sản phẩm trong số đó đang nhanh chóng thu hẹp khoảng cách hiệu suất so với các mô hình AI độc quyền.

Một cuộc khảo sát mới, lần đầu tiên được thực hiện với hơn 700 nhà lãnh đạo công nghệ và nhà phát triển cấp cao tại 41 quốc gia, do McKinsey, Quỹ Mozilla và Quỹ Patrick J. McGovern thực hiện, cung cấp phân tích chi tiết và quy mô lớn nhất về cách các doanh nghiệp đang suy nghĩ và triển khai AI nguồn mở trong tổ chức của họ. Kết quả cho thấy các nhà lãnh đạo đang áp dụng các công cụ nguồn mở như những thành phần thiết yếu trong bộ công nghệ của họ, với những lợi thế như hiệu suất cao, dễ sử dụng và chi phí triển khai và bảo trì thấp hơn so với các công cụ độc quyền. Trong khi đó, các nhà phát triển ngày càng coi trải nghiệm với AI nguồn mở là một phần quan trọng trong sự hài lòng chung về công việc của họ. Trong khi các giải pháp nguồn mở đi kèm với những lo ngại về bảo mật và thời gian đánh giá, hơn ba phần tư số người trả lời khảo sát mong đợi sẽ tăng cường sử dụng AI nguồn mở trong những năm tới.

Nghiên cứu của chúng tôi cho thấy các doanh nghiệp đang sử dụng các mô hình nguồn mở nhiều hơn mong đợi. Trên nhiều lĩnh vực của công nghệ AI, hơn 50% số người được hỏi báo cáo rằng tổ chức của họ đang sử dụng các công nghệ AI nguồn mở (thường kết hợp với các công cụ độc quyền từ các công ty như Anthropic, OpenAI và Google). Các tổ chức đặt ưu tiên cao cho AI là những tổ chức có nhiều khả năng sử dụng công nghệ nguồn mở nhất: Những người được hỏi từ các tổ chức coi AI là quan trọng đối với lợi thế cạnh tranh của họ có khả năng báo cáo sử dụng các mô hình và công cụ AI nguồn mở cao hơn 40% so với những người được hỏi từ các tổ chức khác. Ngành công nghệ đang dẫn đầu, với 72% tổ chức của những người được hỏi sử dụng mô hình AI nguồn mở, so với 63% số người được hỏi từ tất cả các tổ chức. Kết quả khảo sát cung cấp một số phát hiện chính:

  • Xu hướng và việc sử dụng AI nguồn mở:

    • Việc sử dụng các công nghệ AI nguồn mở rất phổ biến. Hơn 50% số người được hỏi cho biết họ đang tận dụng giải pháp nguồn mở trong từng lĩnh vực dữ liệu, mô hình và công cụ của bộ công nghệ.

    • Trình độ kỹ thuật và kinh nghiệm của nhà phát triển ảnh hưởng đến việc sử dụng AI nguồn mở. Tỷ lệ sử dụng này cao nhất trong lĩnh vực công nghệ, truyền thông và viễn thông (70%), và các nhà phát triển AI giàu kinh nghiệm có khả năng sử dụng các giải pháp AI nguồn mở cao hơn 40% so với các đồng nghiệp.

    • Các tổ chức đang sử dụng các công cụ AI nguồn mở từ những đối tác quen thuộc. Tính đến tháng 1 năm 2025, các công cụ AI nguồn mở được sử dụng phổ biến nhất trong các doanh nghiệp là các công cụ do các công ty công nghệ lớn phát triển, chẳng hạn như Meta với dòng sản phẩm Llama và Google với dòng sản phẩm Gemma.

  • Giá trị đối với các tổ chức và nhà phát triển:

    • Hầu hết người được hỏi đều hài lòng với các mô hình AI nguồn mở của họ. Lý do hàng đầu cho sự hài lòng được báo cáo là hiệu suất và tính dễ sử dụng.

    • Các công cụ AI nguồn mở dẫn đầu về lợi ích về chi phí, trong khi các công cụ AI độc quyền có thời gian thu hồi vốn nhanh hơn. Những người được hỏi cho biết AI nguồn mở có chi phí triển khai thấp hơn (60%) và chi phí bảo trì thấp hơn (46%). Tuy nhiên, những người được hỏi cho rằng thời gian thu hồi vốn nhanh hơn từ các công cụ AI độc quyền (48%).

    • Các nhà phát triển đánh giá cao các công cụ AI nguồn mở. Hầu hết các nhà phát triển (81%) cho biết kinh nghiệm sử dụng các công cụ AI nguồn mở được đánh giá cao trong lĩnh vực của họ và việc làm việc với các công cụ này rất quan trọng đối với sự hài lòng trong công việc của họ (66%).

  • Triển vọng tương lai của AI nguồn mở: Các tổ chức sẵn sàng áp dụng kết hợp các giải pháp AI mở và độc quyền. Gần ba phần tư số người được hỏi (hơn 70%) cho biết họ sẵn sàng áp dụng công nghệ AI nguồn mở hoặc độc quyền trên nhiều lĩnh vực công nghệ.

  • Rủi ro và chiến lược giảm thiểu:

    • Các công cụ AI nguồn mở tiềm ẩn những thách thức. Người được hỏi nêu ra những lo ngại về an ninh mạng (62%), tuân thủ quy định (54%) và vi phạm sở hữu trí tuệ (50%) khi sử dụng các công cụ AI.

    • Các tổ chức đang triển khai các biện pháp bảo vệ để quản lý rủi ro liên quan đến các công cụ AI nguồn mở. Các chiến lược bao gồm tăng cường khung bảo mật thông tin và kiểm soát chuỗi cung ứng phần mềm, sử dụng đánh giá của bên thứ ba về các mô hình và triển khai các biện pháp bảo vệ để hạn chế hành vi của mô hình.

Nhìn chung, hơn ba phần tư số người được hỏi—76%—kỳ vọng tổ chức của họ sẽ tăng cường sử dụng các công nghệ AI nguồn mở trong vài năm tới. Điều này có thể một phần là do các công cụ nguồn mở đã đóng vai trò là một phần của hệ sinh thái phần mềm năng động trong nhiều danh mục phần mềm doanh nghiệp, cũng như là một nguồn tài nguyên nền tảng cho cộng đồng nhà phát triển trong nhiều thập kỷ. Khi AI tiếp tục được cải thiện, các nhà lãnh đạo doanh nghiệp và công nghệ nên chú ý đến tất cả các cơ hội và đổi mới đang nổi lên. Giống như trong ngành công nghiệp đám mây và phần mềm, phương pháp tiếp cận đa mô hình có thể sẽ phổ biến đối với nhiều công ty, với các công nghệ nguồn mở và độc quyền cùng tồn tại trong nhiều lĩnh vực của bộ công nghệ AI.

Để xem toàn bộ dữ liệu và thông tin chi tiết, vui lòng tải xuống báo cáo tại đây.

VỀ (CÁC) TÁC GIẢ

Ankit Bisht là đối tác tại văn phòng McKinsey ở Dubai, và Lareina Yee là đối tác cấp cao tại văn phòng Vùng Vịnh, nơi Roger Roberts là đối tác, Brittany Presten là đối tác liên kết, và Katherine Ottenbreit là cố vấn.

Các tác giả xin cảm ơn các đối tác nghiên cứu của họ tại Quỹ Mozilla và Quỹ Patrick J. McGovern; các đồng nghiệp tại QuantumBlack Labs, bộ phận phát triển phần mềm và nghiên cứu và phát triển của QuantumBlack, AI by McKinsey, đơn vị mang đến những đổi mới về AI cho khách hàng và đã có nhiều đóng góp cho hệ sinh thái phần mềm nguồn mở trong lĩnh vực AI và học máy; Cayla Volandes tại văn phòng McKinsey ở New York; Natasha Maniar tại văn phòng McKinsey ở Vùng Vịnh; và các cộng tác viên học thuật bên ngoài đã chia sẻ những hiểu biết sâu sắc và quan điểm của họ về bản thảo và phân tích khảo sát, bao gồm Knut Blind tại Fraunhofer ISI, Luca Vendraminelli tại Đại học Stanford, Sayash Kapoor tại Đại học Princeton, và Genevieve Smith tại Đại học California, Berkeley.

With more organizations deploying gen AI across business functions, a new survey finds that leaders are increasingly turning to open source AI solutions to build out their tech stacks.

This report is part of a research collaboration among McKinsey, the Mozilla Foundation, and the Patrick J. McGovern Foundation.

Open source software has long been a critical part of the technology ecosystem. Commercial software typically requires a commercial license or subscription and restricts access to its core technology. However, open source tools are developed collaboratively and made available to the public to use, modify, and distribute with far fewer restrictions. The open source model gives developers the ability to adapt and shape well-tailored solutions to the particular needs of their organizations.

The current age of AI is no different. As more enterprises build and deploy AI-driven solutions across their businesses, they are turning to a growing array of open source technologies. Such offerings include Meta’s Llama family, Google’s Gemma family, the Allen Institute for Artificial Intelligence’s OLMo family, Nvidia’s NeMo family, DeepSeek-R1, and Alibaba Cloud’s Qwen 2.5-Max—many of which are fast closing the performance gap relative to proprietary AI models.

A new, first-of-its-kind survey of more than 700 technology leaders and senior developers across 41 countries, conducted by McKinsey, the Mozilla Foundation, and the Patrick J. McGovern Foundation, provides the largest and most detailed analysis of how enterprises are thinking about and deploying open source AI in their organizations. The results suggest that leaders are embracing open source tools as essential components of their technology stacks, citing advantages such as high performance, ease of use, and lower implementation and maintenance costs relative to proprietary tools. Developers, meanwhile, increasingly view experience with open source AI as an important part of their overall job satisfaction. While open source solutions come with concerns about security and time to value, more than three-quarters of survey respondents expect to increase their use of open source AI in the years ahead.

Our research shows that enterprises are using open source models more than one might expect. Across several areas of the AI technology stack, over 50 percent of respondents report that their organizations are using open source AI technologies (often alongside proprietary tools from players such as Anthropic, OpenAI, and Google). Organizations that place a high priority on AI are the ones most likely to use open source technologies: Respondents from organizations that view AI as important to their competitive advantage are more than 40 percent more likely to report using open source AI models and tools than respondents from other organizations. The technology industry is leading the way, with 72 percent of respondents’ organizations using an open source AI model, compared with 63 percent of respondents from all organizations.

The survey results provide several key findings:

  • Open source AI usage and trends:

    • Use of open source AI technologies is widespread. More than 50 percent of respondents report leveraging an open source solution in each of the data, models, and tools areas of the technology stack.

    • Technical maturity and developer experience influence open source AI use. Such use is highest in technology, media, and telecommunications (70 percent), and experienced AI developers are 40 percent more likely than peers to use open source AI solutions.

    • Organizations are using open source AI tools from familiar players. The most commonly used open source AI tools among enterprises, as of January 2025, are those developed by large technology players, such as Meta with its Llama family and Google with its Gemma family.

  • Value to organizations and developers:

    • Most respondents are satisfied with their open source AI models. The top reasons for satisfaction reported are performance and ease of use.

    • Open source AI tools lead on cost benefits, while proprietary AI tools have faster time to value. Respondents say that open source AI has lower implementation costs (60 percent) and lower maintenance costs (46 percent). But respondents see faster time to value from proprietary AI tools (48 percent).

    • Developers value open source AI tools. Most developers (81 percent) report that experience with open source AI tools is highly valued in their field and that working with such tools is important to their job satisfaction (66 percent).

  • Future outlook on open source AI: Organizations are open to a mixture of open and proprietary AI solutions. Nearly three-quarters of respondents (over 70 percent) say that they are open to either open source or proprietary AI technologies across areas of the technology stack.

  • Risks and mitigation strategies:

    • Open source AI tools involve potential challenges. Respondents cite concerns about cybersecurity (62 percent), regulatory compliance (54 percent), and intellectual property infringement (50 percent) when engaging with AI tools.

    • Organizations are implementing safeguards to manage risks associated with open source AI tools. Strategies include strengthening information security frameworks and software supply chain controls, using third-party evaluation of models, and implementing guardrails to limit model behavior.

Overall, more than three-quarters of respondents—76 percent—expect their organizations to increase use of open source AI technologies over the next several years. This may be in part because open source tools have served as a part of a vibrant software ecosystem in many categories of enterprise software, as well as a foundational resource for developer communities, for decades. As AI continues to improve, business and technology leaders should pay close attention to all the opportunities and innovations that emerge. Much like in the cloud and software industries, a multimodel approach will likely be prevalent for many companies, with open source and proprietary technologies coexisting in multiple areas of the AI technology stack.

For the full set of data and insights, download the report here.

ABOUT THE AUTHOR(S)

Ankit Bisht is a partner in McKinsey’s Dubai office, and Lareina Yee is a senior partner in the Bay Area office, where Roger Roberts is a partner, Brittany Presten is an associate partner, and Katherine Ottenbreit is a consultant.

The authors wish to thank their research partners at the Mozilla Foundation and the Patrick J. McGovern Foundation; their colleagues in QuantumBlack Labs, the software development and R&D arm of QuantumBlack, AI by McKinsey, which brings AI innovations to clients and has made many contributions to the open source software ecosystem in AI and machine learning; Cayla Volandes in McKinsey’s New York office; Natasha Maniar in McKinsey’s Bay Area office; and their external academic collaborators for their insights and perspectives on the survey draft and analysis, including Knut Blind at Fraunhofer ISI, Luca Vendraminelli at Stanford University, Sayash Kapoor at Princeton University, and Genevieve Smith at University of California, Berkeley.

Dịch: Lê Trung Nghĩa

letrungnghia.foss@gmail.com

Thứ Tư, 30 tháng 7, 2025

‘Chiến thắng cuộc đua: KẾ HOẠCH HÀNH ĐỘNG AI CỦA NƯỚC MỸ’ - bản dịch sang tiếng Việt


Là bản dịch tài liệu ‘Chiến thắng cuộc đua: KẾ HOẠCH HÀNH ĐỘNG AI CỦA NƯỚC MỸ’ do Nhà Trắng xuất bản ngày 23/07/2025.

Giới thiệu

Hoa Kỳ đang trong cuộc đua giành vị thế thống trị toàn cầu về trí tuệ nhân tạo (AI). Bất kỳ quốc gia nào sở hữu hệ sinh thái AI lớn nhất sẽ thiết lập các tiêu chuẩn AI toàn cầu và gặt hái những lợi ích kinh tế và quân sự to lớn. Cũng giống như chúng ta đã chiến thắng trong cuộc đua không gian, Hoa Kỳ và các đồng minh nhất thiết phải chiến thắng trong cuộc đua này. Tổng thống Trump đã có những bước đi quyết định hướng tới mục tiêu này ngay trong những ngày đầu nhậm chức bằng việc ký Sắc lệnh Hành pháp 14179, “Xóa bỏ rào cản đối với vị thế dẫn đầu của Hoa Kỳ trong lĩnh vực Trí tuệ Nhân tạo”, kêu gọi Hoa Kỳ duy trì vị thế thống trị trong cuộc đua toàn cầu này và chỉ đạo việc xây dựng Kế hoạch Hành động AI.

Chiến thắng trong cuộc đua AI sẽ mở ra một kỷ nguyên vàng mới cho sự phát triển thịnh vượng của con người, khả năng cạnh tranh kinh tế và an ninh quốc gia cho người dân Hoa Kỳ. AI sẽ cho phép người Mỹ khám phá ra các vật liệu mới, tổng hợp các hóa chất mới, sản xuất các loại thuốc mới và phát triển các phương pháp mới để khai thác năng lượng - một cuộc cách mạng công nghiệp. Nó sẽ tạo ra những hình thức giáo dục, phương tiện và truyền thông hoàn toàn mới - một cuộc cách mạng thông tin. Và nó sẽ tạo ra những thành tựu trí tuệ hoàn toàn mới: giải mã những cuộn giấy cổ xưa từng bị cho là không thể đọc được, tạo ra những đột phá trong lý thuyết khoa học và toán học, và tạo ra những loại hình nghệ thuật kỹ thuật số và vật lý mới - một thời kỳ phục hưng.

Một cuộc cách mạng công nghiệp, một cuộc cách mạng thông tin, và một thời kỳ phục hưng - tất cả cùng một lúc. Đây chính là tiềm năng mà AI mang lại. Cơ hội đang mở ra trước mắt chúng ta vừa đầy cảm hứng vừa khiêm nhường. Và chúng ta có thể nắm bắt, hoặc đánh mất nó.

Kế hoạch Hành động AI của Hoa Kỳ có ba trụ cột: đổi mới, cơ sở hạ tầng, ngoại giao và an ninh quốc tế. Hoa Kỳ cần đổi mới nhanh hơn và toàn diện hơn so với các đối thủ cạnh tranh trong việc phát triển và phân phối công nghệ AI mới trên mọi lĩnh vực, đồng thời xóa bỏ các rào cản pháp lý không cần thiết đang cản trở khu vực tư nhân thực hiện điều này. Như Phó Tổng thống Vance đã nhận xét tại Hội nghị Thượng đỉnh Hành động AI Paris vào tháng 2, việc hạn chế phát triển AI bằng các quy định nặng nề "không chỉ mang lại sự bất công về lợi ích cho những người đương nhiệm... mà còn đồng nghĩa với việc làm tê liệt một trong những công nghệ triển vọng nhất mà chúng ta từng thấy trong nhiều thế hệ". Đó là lý do tại sao Tổng thống Trump đã hủy bỏ các hành động nguy hiểm của Chính quyền Biden ngay từ ngày đầu tiên.

Chúng ta cần xây dựng và duy trì cơ sở hạ tầng AI rộng lớn cùng nguồn năng lượng để vận hành nó. Để làm được điều đó, chúng ta sẽ tiếp tục bác bỏ giáo điều khí hậu cực đoan và thủ tục hành chính quan liêu, như Chính quyền đã làm kể từ Ngày Nhậm chức. Nói một cách đơn giản, chúng ta cần "Xây dựng, Em yêu, Xây dựng!"

Chúng ta cần thiết lập AI của Mỹ - từ các chất bán dẫn tiên tiến đến các mô hình và ứng dụng của chúng ta - như tiêu chuẩn vàng cho AI trên toàn thế giới và đảm bảo các đồng minh của chúng ta đang phát triển dựa trên công nghệ của Mỹ.

Một số nguyên tắc xuyên suốt cả ba trụ cột này. Thứ nhất, người lao động Mỹ đóng vai trò trung tâm trong chính sách AI của Chính quyền Trump. Chính quyền sẽ đảm bảo rằng người lao động của Quốc gia và gia đình của họ được hưởng lợi từ những cơ hội được tạo ra trong cuộc cách mạng công nghệ này. Việc xây dựng cơ sở hạ tầng AI sẽ tạo ra việc làm lương cao cho người lao động Mỹ. Và những đột phá trong y học, sản xuất và nhiều lĩnh vực khác mà AI sẽ tạo ra sẽ nâng cao mức sống cho tất cả người Mỹ. AI sẽ cải thiện cuộc sống của người Mỹ bằng cách bổ sung cho công việc của họ - chứ không phải thay thế nó.

Thứ hai, hệ thống AI của chúng ta phải không bị ảnh hưởng bởi định kiến tư tưởng và được thiết kế để theo đuổi sự thật khách quan thay vì các chương trình nghị sự kỹ thuật xã hội khi người dùng tìm kiếm thông tin thực tế hoặc phân tích. Hệ thống AI đang trở thành những công cụ thiết yếu, định hình sâu sắc cách người Mỹ tiếp nhận thông tin, nhưng những công cụ này cũng phải đáng tin cậy.

Cuối cùng, chúng ta phải ngăn chặn các công nghệ tiên tiến của mình bị lạm dụng hoặc đánh cắp bởi các tác nhân độc hại, cũng như giám sát các rủi ro mới nổi và không lường trước được từ AI. Làm như vậy đòi hỏi sự cảnh giác liên tục.

Kế hoạch Hành động này đặt ra các mục tiêu chính sách rõ ràng để chính phủ Liên bang thực hiện trong thời gian tới. Mục tiêu của Kế hoạch Hành động là nêu rõ các khuyến nghị chính sách mà Chính quyền này có thể đưa ra cho người dân Mỹ để đạt được tầm nhìn của Tổng thống về sự thống trị AI toàn cầu. Cuộc đua AI là chiến thắng của nước Mỹ, và Kế hoạch Hành động này là lộ trình dẫn đến chiến thắng của chúng ta.

Michael J. Kratsios

Trợ lý Tổng thống về Khoa học và Công nghệ

David O. Sacks

Cố vấn Đặc biệt về AI và Mật mã

Marco A. Rubio

Trợ lý Tổng thống về An ninh Quốc gia

Tự do tải về bản dịch sang tiếng Việt của tài liệu có 40 trang tại địa chỉ: https://www.dropbox.com/scl/fi/we2pyhf5anro4ou3ejhec/Americas-AI-Action-Plan_Vi-30072025.pdf?rlkey=2azh6bdh14mu277731v2630s2&st=e58cej5d&dl=0

Xem thêm:

Blogger: Lê Trung Nghĩa

letrungnghia.foss@gmail.com

Thứ Ba, 29 tháng 7, 2025

Nhà Trắng công bố Kế hoạch hành động AI của Hoa Kỳ


White House Unveils America’s AI Action Plan

The White House; July 23, 2025

Theo: https://www.whitehouse.gov/articles/2025/07/white-house-unveils-americas-ai-action-plan/

Bài được đưa lên Internet ngày: 23/07/2025

Hôm nay, Nhà Trắng đã công bố “Chiến thắng trong Cuộc đua AI: Kế hoạch Hành động AI của Hoa Kỳ”, theo sắc lệnh hành pháp của Tổng thống Trump ban hành vào tháng 1 về việc Xóa bỏ Rào cản đối với Vị thế Lãnh đạo của Hoa Kỳ trong lĩnh vực AI. Chiến thắng trong cuộc đua AI sẽ mở ra một kỷ nguyên vàng son mới cho sự phát triển của con người, khả năng cạnh tranh kinh tế và an ninh quốc gia cho người dân Hoa Kỳ.

Kế hoạch xác định hơn 90 hành động chính sách của Liên bang trên ba trụ cột – Tăng tốc Đổi mới, Xây dựng Cơ sở hạ tầng AI của Hoa Kỳ và Dẫn đầu trong Ngoại giao và An ninh Quốc tế – mà Chính quyền Trump sẽ thực hiện trong những tuần và tháng tới.

Các chính sách chính trong Kế hoạch Hành động AI bao gồm:

  • Xuất khẩu AI của Hoa Kỳ: Bộ Thương mại và Bộ Ngoại giao sẽ hợp tác với ngành công nghiệp để cung cấp các gói xuất khẩu AI an toàn, đầy đủ – bao gồm phần cứng, mô hình, phần mềm, ứng dụng và tiêu chuẩn – cho bạn bè và đồng minh của Hoa Kỳ trên toàn thế giới.

  • Thúc đẩy Xây dựng Nhanh chóng các Trung tâm Dữ liệu: Đẩy nhanh và hiện đại hóa giấy phép cho các trung tâm dữ liệu và nhà máy sản xuất chất bán dẫn, cũng như tạo ra các sáng kiến quốc gia mới để tăng cường các ngành nghề có nhu cầu cao như thợ điện và kỹ thuật viên HVAC.

  • Thúc đẩy Đổi mới và Áp dụng: Loại bỏ các quy định Liên bang nặng nề cản trở sự phát triển và triển khai AI, đồng thời tìm kiếm ý kiến đóng góp từ khu vực tư nhân về các quy tắc cần loại bỏ.

  • Duy trì Tự do Ngôn luận trong các Mô hình Tiên phong: Cập nhật các hướng dẫn mua sắm của Liên bang để đảm bảo rằng chính phủ chỉ ký hợp đồng với các nhà phát triển mô hình ngôn ngữ lớn tiên phong, những người đảm bảo rằng hệ thống của họ khách quan và không có định kiến tư tưởng từ trên xuống.

“Kế hoạch Hành động AI của Hoa Kỳ vạch ra một lộ trình quyết định nhằm củng cố vị thế thống trị của Hoa Kỳ trong lĩnh vực trí tuệ nhân tạo. Tổng thống Trump đã ưu tiên AI như một nền tảng cho sự đổi mới của Hoa Kỳ, thúc đẩy một kỷ nguyên mới về sự lãnh đạo của Hoa Kỳ trong khoa học, công nghệ và ảnh hưởng toàn cầu. Kế hoạch này thúc đẩy các nỗ lực của Liên bang nhằm tăng cường năng lực đổi mới, xây dựng cơ sở hạ tầng tiên tiến và dẫn đầu toàn cầu, đảm bảo rằng người lao động và các gia đình Hoa Kỳ phát triển thịnh vượng trong kỷ nguyên AI. Chúng tôi đang hành động khẩn trương để biến tầm nhìn này thành hiện thực”, Giám đốc Văn phòng Chính sách Khoa học và Công nghệ Nhà Trắng Michael Kratsios cho biết.

“Trí tuệ nhân tạo là một công nghệ mang tính cách mạng với tiềm năng chuyển đổi nền kinh tế toàn cầu và thay đổi cán cân quyền lực trên thế giới. Để duy trì vị thế cường quốc kinh tế và quân sự hàng đầu, Hoa Kỳ phải chiến thắng trong cuộc đua AI. Nhận thức được điều này, Tổng thống Trump đã chỉ đạo chúng tôi xây dựng Kế hoạch Hành động này. Để chiến thắng trong cuộc đua AI, Hoa Kỳ phải dẫn đầu về đổi mới sáng tạo, cơ sở hạ tầng và quan hệ đối tác toàn cầu. Đồng thời, chúng ta phải tập trung vào người lao động Mỹ và tránh việc sử dụng AI theo kiểu Orwellian. Kế hoạch Hành động này cung cấp một lộ trình để thực hiện điều đó”, David Sacks, ông trùm AI và Crypto, phát biểu.

“Chiến thắng trong cuộc đua AI là điều không thể thương lượng. Hoa Kỳ phải tiếp tục là thế lực thống trị về trí tuệ nhân tạo để thúc đẩy thịnh vượng và bảo vệ an ninh kinh tế và quốc gia của chúng ta. Tổng thống Trump đã nhận ra điều này ngay từ đầu nhiệm kỳ của mình và đã hành động quyết đoán bằng cách ủy quyền cho Kế hoạch Hành động AI này. Những mục tiêu chính sách rõ ràng này đặt ra kỳ vọng cho Chính phủ Liên bang nhằm đảm bảo Hoa Kỳ thiết lập tiêu chuẩn vàng về công nghệ trên toàn thế giới và thế giới tiếp tục vận hành dựa trên công nghệ của Hoa Kỳ”, Ngoại trưởng kiêm Quyền Cố vấn An ninh Quốc gia Marco Rubio cho biết.

Tìm hiểu thêm tại AI.Gov.

The White House today released “Winning the AI Race: America’s AI Action Plan”, in accordance with President Trump’s January executive order on Removing Barriers to American Leadership in AI. Winning the AI race will usher in a new golden age of human flourishing, economic competitiveness, and national security for the American people.

The Plan identifies over 90 Federal policy actions across three pillars – Accelerating Innovation, Building American AI Infrastructure, and Leading in International Diplomacy and Security – that the Trump Administration will take in the coming weeks and months.

Key policies in the AI Action Plan include:

  • Exporting American AI: The Commerce and State Departments will partner with industry to deliver secure, full-stack AI export packages – including hardware, models, software, applications, and standards – to America’s friends and allies around the world.

  • Promoting Rapid Buildout of Data Centers: Expediting and modernizing permits for data centers and semiconductor fabs, as well as creating new national initiatives to increase high-demand occupations like electricians and HVAC technicians.

  • Enabling Innovation and Adoption: Removing onerous Federal regulations that hinder AI development and deployment, and seek private sector input on rules to remove.

  • Upholding Free Speech in Frontier Models: Updating Federal procurement guidelines to ensure that the government only contracts with frontier large language model developers who ensure that their systems are objective and free from top-down ideological bias.

“America’s AI Action Plan charts a decisive course to cement U.S. dominance in artificial intelligence. President Trump has prioritized AI as a cornerstone of American innovation, powering a new age of American leadership in science, technology, and global influence. This plan galvanizes Federal efforts to turbocharge our innovation capacity, build cutting-edge infrastructure, and lead globally, ensuring that American workers and families thrive in the AI era. We are moving with urgency to make this vision a reality,” said White House Office of Science and Technology Policy Director Michael Kratsios.

“Artificial intelligence is a revolutionary technology with the potential to transform the global economy and alter the balance of power in the world. To remain the leading economic and military power, the United States must win the AI race. Recognizing this, President Trump directed us to produce this Action Plan. To win the AI race, the U.S. must lead in innovation, infrastructure, and global partnerships. At the same time, we must center American workers and avoid Orwellian uses of AI. This Action Plan provides a roadmap for doing that,” said AI and Crypto Czar David Sacks.

“Winning the AI Race is non-negotiable. America must continue to be the dominant force in artificial intelligence to promote prosperity and protect our economic and national security. President Trump recognized this at the beginning of his administration and took decisive action by commissioning this AI Action Plan. These clear-cut policy goals set expectations for the Federal Government to ensure America sets the technological gold standard worldwide, and that the world continues to run on American technology,” said Secretary of State and Acting National Security Advisor Marco Rubio.

Learn more at AI.Gov.

Dịch: Lê Trung Nghĩa

letrungnghia.foss@gmail.com

Thứ Hai, 28 tháng 7, 2025

Khuyến khích AI Nguồn Mở và AI Trọng số Mở (Từ tài liệu ‘Chiến thắng cuộc đua: KẾ HOẠCH HÀNH ĐỘNG AI CỦA NƯỚC MỸ’, do Nhà Trắng xuất bản ngày 23/07/2025)


Encourage Open-Source and Open-Weight AI

Theo tài liệu‘Chiến thắng cuộc đua: KẾ HOẠCH HÀNH ĐỘNG AI CỦA NƯỚC MỸ’ (Winning the Race AMERICA’S AI ACTION PLAN), do Nhà Trắng xuất bản 23/07/2025, 28 trang, có tại: https://www.whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf.

Ngày nay, một chân trời khám phá khoa học mới đang mở ra trước mắt chúng ta, được định hình bởi những công nghệ mang tính đột phá như trí tuệ nhân tạo… Những đột phá trong các lĩnh vực này có tiềm năng định hình lại cán cân quyền lực toàn cầu, khơi dậy những ngành công nghiệp hoàn toàn mới, và cách mạng hóa cách chúng ta sống và làm việc. Khi các đối thủ cạnh tranh toàn cầu của chúng ta chạy đua khai thác những công nghệ này, thì việc Hoa Kỳ đạt được và duy trì vị thế thống trị công nghệ toàn cầu không thể nghi ngờ và không bị thách thức là một mệnh lệnh an ninh quốc gia. Để đảm bảo tương lai, chúng ta phải khai thác toàn bộ sức mạnh đổi mới của Hoa Kỳ.

Donald J. Trump

Tổng thống thứ 45 và 47 của Hoa Kỳ



Đoạn về ‘Khuyến khích AI Nguồn Mở và AI Trọng số Mở’ là một phần của tài liệu, các trang 4-5, có nội dung cụ thể như sau:

KHUYẾN KHÍCH AI NGUỒN MỞ VÀ AI TRỌNG SỐ MỞ

Các mô hình AI nguồn mở và AI trọng số mở được các nhà phát triển cung cấp miễn phí để bất kỳ ai trên thế giới cũng có thể tải xuống và chỉnh sửa. Các mô hình được phân phối theo cách này có giá trị đặc biệt cho đổi mới sáng tạo vì các công ty khởi nghiệp có thể sử dụng chúng một cách linh hoạt mà không phụ thuộc vào nhà cung cấp mô hình đóng. Chúng cũng mang lại lợi ích cho việc áp dụng AI trong thương mại và chính phủ vì nhiều doanh nghiệp và chính phủ có dữ liệu nhạy cảm mà họ không thể gửi cho các nhà cung cấp mô hình đóng. Và chúng rất cần thiết cho nghiên cứu học thuật, vốn thường dựa vào quyền truy cập vào trọng số và dữ liệu đào tạo của một mô hình để thực hiện các thí nghiệm khoa học nghiêm ngặt.

Chúng ta cần đảm bảo rằng nước Mỹ có các mô hình mở hàng đầu được xây dựng dựa trên các giá trị của Mỹ. Các mô hình nguồn mở và AI trọng số mở có thể trở thành tiêu chuẩn toàn cầu trong một số lĩnh vực kinh doanh và nghiên cứu học thuật trên toàn thế giới. Vì lý do đó, chúng cũng có giá trị địa chiến lược. Mặc dù quyết định về việc có nên phát hành mô hình mở hay đóng và cách phát hành về cơ bản là do nhà phát triển quyết định, nhưng chính phủ Liên bang nên tạo ra một môi trường hỗ trợ cho các mô hình mở.

Các hành động chính sách được khuyến nghị

  • Đảm bảo quyền truy cập tới năng lực tính toán quy mô lớn cho các công ty khởi nghiệp và học giả bằng cách cải thiện thị trường tài chính cho điện toán. Hiện tại, một công ty muốn sử dụng điện toán quy mô lớn thường phải ký hợp đồng dài hạn với các công ty siêu quy mô—vượt xa khả năng ngân sách của hầu hết các học giả và nhiều công ty khởi nghiệp. Nước Mỹ đã giải quyết vấn đề này trước đây bằng các sản phẩm khác thông qua thị trường tài chính, chẳng hạn như thị trường giao ngay và thị trường kỳ hạn cho hàng hóa. Thông qua sự hợp tác với ngành công nghiệp, NIST tại DOC, OSTP và chương trình thí điểm Tài nguyên Nghiên cứu AI Quốc gia (NAIRR) của Quỹ Khoa học Quốc gia (NSF), chính phủ Liên bang có thể đẩy nhanh quá trình trưởng thành của một thị trường tài chính lành mạnh cho điện toán.

  • Hợp tác với các công ty công nghệ hàng đầu để tăng cường quyền truy cập của cộng đồng nghiên cứu tới các nguồn lực điện toán, mô hình, dữ liệu và phần mềm đẳng cấp thế giới của khu vực tư nhân như một phần của chương trình thí điểm NAIRR.

  • Xây dựng nền tảng cho năng lực vận hành NAIRR tinh gọn và bền vững, có thể kết nối ngày càng nhiều nhà nghiên cứu và nhà giáo dục trên khắp đất nước với các nguồn lực AI quan trọng.

  • Tiếp tục thúc đẩy thế hệ đột phá AI tiếp theo bằng cách công bố Kế hoạch Chiến lược Nghiên cứu và Phát triển (R&D) AI Quốc gia mới, do OSTP dẫn đầu, nhằm định hướng các khoản đầu tư nghiên cứu AI của Liên bang.

  • Do DOC dẫn đầu thông qua Cục Viễn thông và Thông tin Quốc gia (NTIA), triệu tập các bên liên quan để giúp thúc đẩy việc áp dụng các mô hình nguồn mở và mô hình trọng số mở bởi các doanh nghiệp vừa và nhỏ.

“Today, a new frontier of scientific discovery lies before us, defined by transformative technologies such as artificial intelligence… Breakthroughs in these fields have the potential to reshape the global balance of power, spark entirely new industries, and revolutionize the way we live and work. As our global competitors race to exploit these technologies, it is a national security imperative for the United States to achieve and maintain unquestioned and unchallenged global technological dominance. To secure our future, we must harness the full power of American innovation.”

Donald J. Trump

45 th and 47th President of the United States

Open-source and open-weight AI models are made freely available by developers for anyone in the world to download and modify. Models distributed this way have unique value for innovation because startups can use them flexibly without being dependent on a closed model provider. They also benefit commercial and government adoption of AI because many businesses and governments have sensitive data that they cannot send to closed model vendors. And they are essential for academic research, which often relies on access to the weights and training data of a model to perform scientifically rigorous experiments.

We need to ensure America has leading open models founded on American values. Open-source and open-weight models could become global standards in some areas of business and in academic research worldwide. For that reason, they also have geostrategic value. While the decision of whether and how to release an open or closed model is fundamentally up to the developer, the Federal government should create a supportive environment for open models.

Recommended Policy Actions

• Ensure access to large-scale computing power for startups and academics by improving the financial market for compute. Currently, a company seeking to use large-scale compute must often sign long-term contracts with hyperscalers—far beyond the budgetary reach of most academics and many startups. America has solved this problem before with other goods through financial markets, such as spot and forward markets for commodities. Through collaboration with industry, NIST at DOC, OSTP, and the National Science Foundation’s (NSF) National AI Research Resource (NAIRR) pilot, the Federal government can accelerate the maturation of a healthy financial market for compute.

• Partner with leading technology companies to increase the research community’s access to world-class private sector computing, models, data, and software resources as part of the NAIRR pilot.

• Build the foundations for a lean and sustainable NAIRR operations capability that can connect an increasing number of researchers and educators across the country to critical AI resources.

• Continue to foster the next generation of AI breakthroughs by publishing a new National AI Research and Development (R&D) Strategic Plan, led by OSTP, to guide Federal AI research investments.

• Led by DOC through the National Telecommunications and Information Administration (NTIA), convene stakeholders to help drive adoption of open-source and open-weight models by small and medium-sized businesses.

Dịch: Lê Trung Nghĩa

letrungnghia.foss@gmail.com

Chủ Nhật, 27 tháng 7, 2025

Vượt ra ngoài ranh giới mở và đóng: Hiểu về phổ minh bạch của AI


Beyond open vs. closed: Understanding the spectrum of AI transparency

March 20, 2025 By Aaron Linskens

Theo: https://www.sonatype.com/blog/beyond-open-vs.-closed-understanding-the-spectrum-of-ai-transparency

Bài được đưa lên Internet ngày: 20/03/2025

Trí tuệ nhân tạo (AI) đang biến đổi các ngành công nghiệp, từ phát triển phần mềm đến an ninh mạng. Tuy nhiên, khi việc áp dụng AI ngày càng tăng, các cuộc thảo luận xung quanh khả năng tiếp cận và tính minh bạch của nó cũng tăng theo. Không giống như phần mềm truyền thống, nơi khái niệm nguồn mở được định nghĩa rõ ràng, AI lại mang đến những phức tạp bổ sung - đặc biệt là xung quanh dữ liệu đào tạo, các tham số mô hình và tính mở của kiến trúc.

AI nguồn mở là gì?

Sáng kiến Nguồn Mở - OSI (Open Source Initiative) đã đưa ra một định nghĩa chính thức về AI nguồn mở (bản dịch sang tiếng Việt), không yêu cầu dữ liệu đào tạo hoặc tham số mô hình phải được công khai. Tuy nhiên, nhiều người trong cộng đồng AI và nguồn mở cho rằng tính minh bạch thực sự đòi hỏi quyền truy cập đầy đủ vào các thành phần này.

Thay vì tranh luận nhị phân về việc AI là mở hay đóng, cuộc thảo luận có liên quan hơn là về mức độ minh bạch của các mô hình AI trên các khía cạnh khác nhau - mã nguồn, tham số mô hình và dữ liệu đào tạo.

Hãy cùng khám phá những sắc thái của tính minh bạch AI, sự khác biệt về tính mở của các mô hình khác nhau và tại sao những khác biệt này lại quan trọng.

Định nghĩa toàn bộ phạm vi minh bạch của AI

Thay vì ép AI vào sự phân đôi nguồn mở và nguồn đóng nghiêm ngặt, việc đánh giá mức độ minh bạch của một hệ thống AI sẽ hữu ích hơn.

Một mô hình AI thực sự mở sẽ cung cấp quyền truy cập đầy đủ vào:

  • Mã nguồn – Kiến trúc và triển khai của mô hình AI.

  • Tham số mô hình – Các trọng số và thiết lập đã học được xác định cách AI hoạt động.

  • Dữ liệu đào tạo – Các tập dữ liệu được sử dụng để đào tạo và tinh chỉnh mô hình.

Nhiều dự án AI tự nhận là nguồn mở chỉ cung cấp một số thành phần này. Điều này dẫn đến một phạm vi mở rộng, thay vì phân loại có/không nghiêm ngặt.

Các khía cạnh chính của tính minh bạch của AI

  • Mã và mô hình có sẵn công khai: Kiến trúc, quy trình đào tạo và tập dữ liệu của mô hình AI có thể được các nhà phát triển và nhà nghiên cứu truy cập.

  • Khả năng sửa đổi: Người dùng có thể điều chỉnh và cải thiện hệ thống AI dựa trên nhu cầu của họ.

  • Tính khả dụng của dữ liệu đào tạo: Nhiều mô hình AI không tiết lộ dữ liệu đào tạo do các vấn đề về quyền riêng tư, cấp phép hoặc cạnh tranh.

  • Tính minh bạch và tin cậy: Việc tiếp cận mở các thành phần AI thúc đẩy sự giám sát chặt chẽ hơn và phát triển AI có đạo đức, nhưng không có định nghĩa duy nhất nào về điều gì làm nên một mô hình AI "mở".

Tính minh bạch của AI và mã nguồn mở truyền thống

Vì tính minh bạch của AI tồn tại trên một phổ, nên việc so sánh mở và đóng đơn giản sẽ không thể hiện được thực tế về khả năng tiếp cận mô hình AI.

Dưới đây là so sánh các chiều minh bạch AI khác nhau:

Tính năng

Minh bạch đầy đủ

Minh bạch một phần

Nguồn đóng

Mã nguồn

Mở

Mở một phần

Độc quyền

Tham số mô hình

Mở

Truy cập hạn chế

Độc quyền

Dữ liệu đào tạo

Mở

Không tiết lộ

Độc quyền


Nhiều mô hình AI được sử dụng rộng rãi, chẳng hạn như GPT-4 của OpenAI và Gemini của Google, thuộc loại minh bạch một phần, trong đó một số yếu tố được mở trong khi một số khác vẫn độc quyền. Ngược lại, các mô hình như Llama và DeepSeek của Meta mang lại tính minh bạch cao hơn nhưng vẫn giữ lại các khía cạnh quan trọng như dữ liệu đào tạo.

Những cái tên lớn trong lĩnh vực minh bạch AI

Một số tổ chức và dự án đang đi đầu trong việc minh bạch AI, mỗi tổ chức cung cấp các mức độ minh bạch khác nhau.

Meta (loạt Llama)

Meta đã có những đóng góp đáng kể cho AI với loạt Llama (Meta AI Mô hình Ngôn ngữ Lớn). Tuy nhiên, trong khi Llama 2 được phát hành với giấy phép và trọng số mô hình tương đối dễ dãi, Meta lại không công khai dữ liệu đào tạo, điều mà một số người cho rằng có nghĩa là nó không đáp ứng đầy đủ định nghĩa về AI nguồn mở.

DeepSeek AI

DeepSeek AI là một sáng kiến nguồn mở đang phát triển, tập trung vào việc phát triển các mô hình AI chất lượng cao. Mặc dù các mô hình và mã của sáng kiến này được công khai, nhưng vẫn chưa rõ liệu các tập dữ liệu đào tạo của DeepSeek có hoàn toàn mở hay không, khiến nó được xếp vào loại minh bạch một phần.

Hugging Face

Là một trung tâm AI nguồn mở, Hugging Face cung cấp một hệ sinh thái rộng lớn để chia sẻ, đào tạo và tinh chỉnh các mô hình AI. Nhiều mô hình được lưu trữ trên Hugging Face có mức độ minh bạch khác nhau, củng cố thêm cuộc thảo luận rộng rãi hơn về cách các dự án AI khác nhau định nghĩa tính minh bạch.

Mistral AI

Mistral AI phát triển các mô hình AI cạnh tranh, sánh ngang với các giải pháp thay thế nguồn đóng. Tuy nhiên, tương tự như Llama, các mô hình của Mistral có tính mở về trọng số mô hình và mã nguồn nhưng lại thiếu bộ dữ liệu huấn luyện hoàn toàn mở, làm gia tăng thêm cuộc tranh luận đang diễn ra về việc thế nào là một mô hình AI minh bạch.

Tại sao tính minh bạch của AI lại quan trọng?

Thay vì tập trung vào việc AI là mở hay đóng, các tổ chức nên đánh giá mức độ minh bạch của một mô hình AI dựa trên các tiêu chí khác nhau.

Đây là lý do tại sao điều này quan trọng:

  • Bảo mật và tuân thủ: Các tổ chức cần hiểu cách các mô hình AI được xây dựng và đào tạo để đảm bảo bảo mật và tuân thủ quy định.

  • Tăng tốc đổi mới: Minh bạch hơn sẽ thúc đẩy đổi mới bằng cách cho phép các nhà phát triển xây dựng dựa trên các mô hình hiện có.

  • Các mối quan ngại về quy định và đạo đức: Tính minh bạch giúp giảm thiểu những lo ngại về định kiến, lạm dụng đạo đức và giải thích.

  • Áp dụng trong doanh nghiệp: Các doanh nghiệp đang đánh giá các giải pháp AI cần có tầm nhìn rõ ràng về các thành phần nào là mở, mở một phần hoặc độc quyền để đưa ra quyết định sáng suốt.

Tương lai của tính minh bạch của AI

Khi AI tiếp tục phát triển, cuộc thảo luận đang chuyển từ cuộc tranh luận nhị phân "mở so với đóng" sang tập trung vào tính minh bạch trên nhiều khía cạnh khác nhau. Các cơ quan quản lý và các nhà lãnh đạo ngành đã và đang thảo luận về quản trị AI và triển khai có trách nhiệm, điều này sẽ tác động đến cách các tổ chức công bố các thành phần AI.

Cho dù các công ty lựa chọn mô hình AI hoàn toàn mở, mở một phần hay độc quyền, thì có một điều rõ ràng: nhu cầu về tính minh bạch trong phát triển AI và hơn thế nữa sẽ tiếp tục tăng lên.

Tại Sonatype, chúng tôi đang theo dõi sát sao các xu hướng AI này, đặc biệt liên quan đến bảo mật chuỗi cung ứng phần mềm. Để tìm hiểu thêm về AI trong phát triển phần mềm, hãy xem qua những thông tin chuyên sâu của chúng tôi.

Bài viết của Aaron Linskens


Aaron là một biên tập viên kỹ thuật thuộc nhóm Tiếp thị của Sonatype. Anh ấy làm việc ở nhiều lĩnh vực, từ biên tập kỹ thuật, vận động nhà phát triển, phát triển phần mềm đến mã nguồn mở. Anh ấy mong muốn giúp các nhà phát triển và cộng tác viên không chuyên về kỹ thuật làm việc hiệu quả với nhau thông qua thử nghiệm, phản hồi và lặp lại để họ...

Khám phá tất cả các bài viết của Aaron Linskens

Artificial intelligence (AI) is transforming industries, from software development to cybersecurity. But as AI adoption grows, so does the discussion around its accessibility and transparency. Unlike traditional software, where the concept of open source is well-defined, AI introduces additional complexities — particularly around training data, model parameters, and architecture openness.

What is open source AI?

The Open Source Initiative (OSI) has put forth an official definition of open source AI, which does not require training data or model parameters to be openly available. However, many in the AI and open source communities argue that true transparency requires full access to these components.

Rather than a binary debate over whether AI is open or closed, the more relevant discussion is about how transparent AI models are across different dimensions — source code, model parameters, and training data.

Let's explore the nuances of AI transparency, how different models compare in openness, and why these distinctions matter.

Defining the full spectrum of AI transparency

Rather than forcing AI into a strict open source vs. closed source dichotomy, it's more useful to assess how transparent an AI system is.

A truly open AI model would provide full access to:

  • Source code – The AI model's architecture and implementation.

  • Model parameters – The learned weights and settings that define how the AI behaves.

  • Training data – The datasets used to train and refine the model.

Many AI projects that claim to be open source make only some of these components available. This leads to a spectrum of openness, rather than a strict yes/no classification.

Key aspects of AI transparency

  • Publicly available code and models: The AI model's architecture, training processes, and datasets are accessible to developers and researchers.

  • Modifiability: Users can tweak and improve the AI system based on their needs.

  • Training data availability: Many AI models do not disclose training data due to privacy, licensing, or competitive concerns.

  • Transparency and trust: Open access to AI components fosters greater scrutiny and ethical AI development, but there is no single definition of what makes an AI model "open."

AI transparency and traditional open source

Since AI transparency exists along a spectrum, a simple open vs. closed comparison doesn't capture the reality of AI model accessibility.

Below is a comparison of different AI transparency dimensions:


Feature

Fully transparent

Partially transparent

Closed source

Source code

Open

Partially open

Proprietary

Model parameters

Open

Restricted access

Proprietary

Training data

Open

Not disclosed

Proprietary



Many widely used AI models, such as OpenAI's GPT-4 and Google's Gemini, fall into the partially transparent category, where some elements are open while others remain proprietary. By contrast, models like Meta's Llama and DeepSeek offer more openness but still withhold key aspects like training data.

Major players in AI transparency

Several organizations and projects are at the forefront of AI transparency, each offering different levels of openness.

Meta (Llama series)

Meta has made significant contributions to AI with its Llama (Large Language Model Meta AI) series. However, while Llama 2 was released with relatively permissive licensing and model weights, Meta has not made the training data open, which some argue means it does not fully meet the definition of open source AI.

DeepSeek AI

DeepSeek AI is a growing open source initiative that focuses on developing high-quality AI models. While its models and code are publicly available, it is unclear if DeepSeek's training datasets are fully open, placing it in the partially transparent category.

Hugging Face

A central hub for open source AI, Hugging Face provides a vast ecosystem for sharing, training, and fine-tuning AI models. Many of the models hosted on Hugging Face vary in openness, reinforcing the broader discussion around how different AI projects define transparency.

Mistral AI

Mistral AI develops competitive AI models that rival closed-source alternatives. However, similar to Llama, Mistral's models are open in terms of model weights and code but lack fully open training datasets, adding to the ongoing debate about what qualifies as a transparent AI model.

Why AI transparency matters

Instead of focusing on whether AI is strictly open or closed, organizations should assess how transparent an AI model is based on different criteria.

Here's why it matters:

  • Security and compliance: Organizations need to understand how AI models are built and trained to ensure security and regulatory compliance.

  • Innovation acceleration: More transparency fosters innovation by allowing developers to build upon existing models.

  • Regulatory and ethical concerns: Transparency helps mitigate concerns over bias, ethical misuse, and explanation.

  • Enterprise adoption: Businesses evaluating AI solutions need visibility into what components are open, partially open, or proprietary to make informed decisions.

The future of AI transparency

As AI continues to evolve, the conversation is shifting from a binary "open vs. closed" debate to one focused on transparency across different dimensions. Regulatory bodies and industry leaders are already discussing AI governance and responsible deployment, which will impact how organizations disclose AI components.

Whether companies choose fully open, partially open, or proprietary AI models, one thing is clear: the need for transparency in AI development and beyond will only continue to grow.

At Sonatype, we are closely monitoring these AI trends, particularly in relation to software supply chain security. To learn more about AI in software development, check out our insights.

Written by Aaron Linskens

Aaron is a technical writer on Sonatype's Marketing team. He works at a crossroads of technical writing, developer advocacy, software development, and open source. He aims to get developers and non-technical collaborators to work well together via experimentation, feedback, and iteration so they ...

Explore all posts by Aaron Linskens

Blogger: Lê Trung Nghĩa

letrungnghia.foss@gmail.com

Thứ Năm, 24 tháng 7, 2025

AI Nguồn Mở so với Đóng: Bạn sẽ tin ai?

Open-Source vs. Closed AI: Who Should You Trust?

July 08, 2025

Theo: https://www.index.dev/blog/open-source-vs-closed-ai-guide

Bài được đưa lên Internet ngày: 08/07/2025

Niềm tin phụ thuộc vào mục tiêu của bạn: các mô hình đóng dẫn đầu về hiệu suất và khả năng kiểm soát, trong khi các mô hình mở chiến thắng về tính minh bạch và tính linh hoạt. Khám phá phương pháp nào mang lại sự tin cậy, bảo mật và hiệu suất tốt nhất.

AI đang biến đổi mọi ngành, nhưng việc tin tưởng vào đúng mô hình là rất quan trọng. Rủi ro rất cao: niềm tin, quản trị, hiệu suất, đạo đức và bảo mật đều đang bị đe dọa.

Các mô hình nguồn đóng (ví dụ: GPT-4, Claude) hiện đang dẫn đầu về hiệu suất thô và khả năng kiểm soát an toàn tập trung.

Các mô hình nguồn mở (ví dụ: Llama 2, Mistral) nổi bật về tính minh bạch, khả năng tùy chỉnh và sự kiểm duyệt của cộng đồng.

Các điểm chuẩn gần đây cho thấy trung bình nguồn đóng vẫn vượt trội, nhưng nguồn mở đang nhanh chóng thu hẹp khoảng cách. Các chuyên gia bảo mật cảnh báo các mô hình mở có nguy cơ bị tấn công dễ dàng hơn do trọng số công khai, tuy nhiên tính minh bạch của chúng giúp đẩy nhanh việc sửa lỗi, trong khi các mô hình đóng che giấu các lỗ hổng nhưng lại dựa vào sự tin tưởng của nhà cung cấp để vá lỗi.

Các khảo sát đối với các nhà phát triển củng cố cuộc tranh luận này: các kỹ sư trẻ và mới vào nghề đặc biệt coi trọng tính minh bạch. Trên thực tế, một khảo sát của StackOverflow năm 2025 cho thấy "niềm tin và khả năng học hỏi đóng vai trò trung tâm trong tương tác của các nhà phát triển trẻ với AI nguồn mở".

Các phòng thí nghiệm AI lớn cũng phản ánh sự phân chia này: OpenAI giữ các mô hình chủ lực của mình sau các khu vườn API khép kín để đảm bảo an toàn, trong khi các công ty như Meta và Anthropic đã mở mã nguồn nhiều mô hình. Ngay cả các nhà hoạch định chính sách cũng đang chú ý đến Đạo luật AI của EU, trong đó nêu rõ nguồn mở là hàng hóa công cộng (Public Good).

Trong bài viết này, chúng ta sẽ đi sâu vào cuộc tranh luận về AI mở và AI đóng. Chúng tôi sẽ giải thích ý nghĩa của từng phương pháp, ai ủng hộ phương pháp nào, tại sao sự tin cậy lại quan trọng, khi nào và ở đâu là phù hợp, và chúng so sánh như thế nào trên các mặt trận chính. Trong quá trình này, chúng tôi sẽ xem xét các tiêu chuẩn hiệu suất, sự đánh đổi về bảo mật, các cân nhắc về đạo đức, cũng như các tác động về quản trị và chính sách.

Cuối cùng, bạn sẽ có một cái nhìn rõ ràng, được chứng minh bằng bằng chứng về mô hình nào (và thực tiễn phát triển nào) tạo nên sự tin cậy trong bối cảnh nào.

Bạn đã sẵn sàng xây dựng với AI đáng tin cậy? Hãy tham gia Index.dev và kết nối với các công ty hàng đầu đang tìm kiếm các nhà phát triển AI lành nghề!

Đối tượng tham gia: Nhà phát triển, Công ty và Cộng đồng

Ai đang định hình cuộc tranh luận này? Một bên là cộng đồng nguồn mở và các nhà phát triển độc lập. Cuộc tranh luận đặt cộng đồng nguồn mở (các nhà phát triển đằng sau PyTorch, TensorFlow, Hugging Face và vô số dự án GitHub) đối đầu với các công ty AI giữ bản quyền các mô hình mới nhất của họ để kiểm soát và bảo vệ quyền sở hữu trí tuệ (IP).

Những người ủng hộ công nghệ mở, 82% trong số họ đã đóng góp cho công nghệ nguồn mở, đề cao tính minh bạch, đánh giá ngang hàng và chia sẻ đổi mới. Trong khi đó, các doanh nghiệp và cơ quan quản lý dựa vào các giải pháp nguồn đóng (ví dụ: Azure OpenAI) để đáp ứng các yêu cầu tuân thủ nghiêm ngặt trong các lĩnh vực như chăm sóc sức khỏe và tài chính. Tại các hội nghị và trên các nền tảng chính sách, các chuyên gia tranh luận về "hợp tác mở so với kiểm soát đóng" như một sự phân chia cơ bản trong chiến lược AI.

Các chính phủ cũng tham gia: Đạo luật AI năm 2023 của EU nêu bật lợi ích kinh tế của các mô hình nền tảng nguồn mở trong khi vẫn nhấn mạnh tính an toàn, và các chính sách của Hoa Kỳ và Trung Quốc cũng tranh luận tương tự về tính mở so với kiểm soát. Tuy nhiên, những ranh giới này đang mờ dần khi Sam Altman của OpenAI đã lưu ý đến giới hạn của tính bảo mật hoàn toàn, và bản phát hành Llama 2 của Meta nhấn mạnh sự hợp tác trên toàn ngành.

AI nguồn mở và AI nguồn đóng là gì?

Chúng ta hiểu thế nào về "AI nguồn mở" so với "AI nguồn đóng"? Trên thực tế, các mô hình AI nguồn mở là những mô hình có mã, trọng số mô hình và dữ liệu đào tạo được công bố theo các giấy phép cho phép (MIT, Apache, GPL, v.v.) để mọi người có thể sử dụng và thay đổi. Hãy xem xét các dự án như LLaMA (Meta models) hoặc Stable Diffusion.

Chúng tồn tại trên các nền tảng như Hugging Face hoặc GitHub, và một cộng đồng tình nguyện viên có thể kiểm tra và cải thiện chúng.

Lời hứa chính: minh bạch hoàn toàn. Bạn có thể xem xét kiến trúc, dữ liệu đào tạo (nếu được công bố) và tinh chỉnh mô hình.

Ngược lại, các mô hình AI nguồn đóng là các hệ thống độc quyền, thường chỉ được cung cấp thông qua API hoặc giấy phép thương mại. Các công ty giữ trọng số và mã ở chế độ nền. Bạn có thể sử dụng chúng thông qua các dịch vụ hoặc sản phẩm đám mây (ví dụ: ChatGPT, Bard, Azure Cognitive Services). Hoạt động bên trong không nhìn thấy được và các điều khoản sử dụng được nhà cung cấp cố định. Sự đánh đổi nằm ở khả năng kiểm soát: các nhà cung cấp cho biết các mô hình đóng cho phép họ thực thi chính sách, sửa lỗi tập trung và kiếm tiền dễ dàng hơn.

Giữa hai thái cực này có các phương pháp tiếp cận kết hợp (lai):

  1. Các mô hình phân tầng

  2. Phát hành có kiểm soát

  3. "Lõi mở" với các tiện ích bổ sung độc quyền

Một số hệ thống (như Llama 2) là mô hình mở với giấy phép hạn chế; một số khác là mô hình mở nhưng yêu cầu khóa API. Các mô hình lai này cố gắng cân bằng giữa tính mở và giám sát.

Nhãn này cũng mở rộng sang các công cụ: nhiều thư viện (PyTorch, Hugging Face Transformers, v.v.) là mã nguồn mở, cho phép AI hoạt động ngay cả với các mô hình đóng. Khi chúng ta nói về "AI mở so với AI đóng", chúng ta thực sự đang hỏi ai có thể xem hoặc thay đổi hoạt động bên trong của mô hình.

Về bản chất, AI nguồn mở = minh bạch và cộng đồng, trong khi AI nguồn đóng = kiểm soát độc quyền.

Mỗi bên tin tưởng các cơ chế khác nhau để đảm bảo AI đáng tin cậy và có đạo đức.

Khám phá 20 dự án nguồn mở trên Github có tác động lớn để đóng góp.

Ưu và nhược điểm của từng phương pháp

Tại sao cuộc tranh luận về niềm tin này lại gay gắt như vậy? Bởi vì các mô hình AI có thể có những tác động sâu sắc (một số không mong muốn) và việc xử lý đòi hỏi sự tự tin vào cách chúng hoạt động.

Dưới đây là các yếu tố chính:

  • Minh bạch so với Bí mật

Các mô hình mở cho phép chúng ta kiểm tra mã, kiểm tra nguồn dữ liệu và kiểm tra các sai lệch, xây dựng sự tin cậy thông qua khả năng hiển thị. Chính sự minh bạch đó làm lộ rõ các lỗ hổng (cửa hậu, rò rỉ dữ liệu). Các mô hình đóng giữ kín các thành phần bên trong, vì vậy chúng ta phải tin tưởng vào các tuyên bố về an toàn và giảm thiểu sai lệch của nhà cung cấp.

  • Bảo mật

Mã mở mời các chuyên gia bảo mật tìm và sửa lỗi, nhưng điều này cũng đồng nghĩa với việc cung cấp cho kẻ tấn công các bản thiết kế tương tự. Các mô hình đóng ẩn kiến trúc của chúng nhưng dựa vào một vài chuyên gia được chứng nhận và kiểm toán nội bộ. Các nhà cung cấp như OpenAI bổ sung các lớp (ví dụ: "tường lửa AI" kiểm tra lời nhắc) để cân bằng giữa tính minh bạch và khả năng bảo vệ.

  • Hiệu suất

Các LLM độc quyền (GPT-4, Claude) vẫn đạt điểm chuẩn cao nhất, vì vậy chúng tôi tin tưởng chúng cho các tác vụ có rủi ro cao. Nhưng các mô hình mở như Mistral và Llama-2-70b đang nhanh chóng thu hẹp khoảng cách, và trong các tình huống thích hợp, chúng thậm chí có thể vượt trội hơn các hệ thống đóng.

  • Đạo đức và Định kiến

Với các mô hình mở, chúng ta có thể xem xét dữ liệu đào tạo và tự áp dụng các bộ lọc đạo đức. Khả năng hiển thị này cũng giúp việc sử dụng sai mục đích (cho mục đích thông tin sai lệch hoặc ngôn từ kích động thù địch) dễ dàng hơn. Các mô hình đóng thực thi các quy tắc một cách tập trung, nhưng chúng ta phải tin tưởng vào các ưu tiên về đạo đức của nhà cung cấp. Một số đề xuất "mở theo tầng" hoặc kiểm toán công khai để đạt được kết quả tốt nhất.

  • Quản trị

Các cơ quan quản lý phải đối mặt với một thách thức: nếu ai đó có thể sửa đổi một mô hình mở, thì ai sẽ chịu trách nhiệm? Một số bài báo gần đây (ví dụ: Viện R Street) lập luận rằng các cơ quan quản lý phải thích nghi, vì trách nhiệm sản phẩm truyền thống không dễ dàng phù hợp. Đạo luật AI của EU thừa nhận những lợi ích của mã nguồn mở nhưng yêu cầu các rào cản an toàn, trong khi các chính sách của Hoa Kỳ tập trung vào trách nhiệm của nhà cung cấp bất kể trạng thái mã nguồn. Cho dù thông qua các chuẩn mực cộng đồng hay sự tuân thủ của doanh nghiệp, việc quản trị đáng tin cậy là điều cần thiết.

  • Cộng đồng và Hỗ trợ

Các cộng đồng mã nguồn mở (diễn đàn, GitHub) cung cấp sự hỗ trợ nhanh chóng từ đồng nghiệp và sự đổi mới tập thể khi 57% nhà phát triển thích đóng góp cho các dự án mở. Hệ sinh thái đóng cung cấp các Thỏa thuận Cấp độ Dịch vụ (SLA) chính thức và hỗ trợ từ nhà cung cấp. Các nền tảng như Index.dev kết nối cả hai bằng cách kiểm tra nhân tài, vì vậy chúng ta biết rằng những người có kỹ năng và đáng tin cậy đứng sau mọi hệ thống AI.

Tóm lại, AI nguồn mở có xu hướng chiếm được lòng tin thông qua tính minh bạch, sự hợp tác và giám sát cộng đồng, với cái giá phải trả là dễ bị tổn thương và (cho đến gần đây) hiệu suất thô yếu hơn.

AI nguồn đóng chiếm được lòng tin thông qua kiểm soát tập trung, các biện pháp bảo mật và danh tiếng thương hiệu, nhưng nó đòi hỏi người dùng phải tin tưởng vào các quy trình chưa được biết đến. Cả hai phương pháp đều có ưu và nhược điểm, và các giải pháp thực tế thường kết hợp các yếu tố của từng phương pháp.


Hiệu suất và Độ tin cậy: So sánh

Hãy cùng tìm hiểu sâu hơn về hiệu suất, một khía cạnh quan trọng tạo nên sự tin tưởng của nhiều người dùng. Nếu một chatbot AI đưa ra những câu trả lời hữu ích một cách đáng tin cậy, người dùng sẽ tin tưởng nó hơn. Các điểm chuẩn gần đây cho thấy rõ bối cảnh hiện tại:

  • Các công ty dẫn đầu hiện tại:

Các LLM độc quyền như GPT-4, Gemini của Google và Claude dẫn đầu các điểm chuẩn. Trong các so sánh về "điểm ELO", các mô hình đóng luôn vượt trội hơn các mô hình mở, với các mô hình mở tập trung ở mức thấp hơn.

  • Lợi ích từ mô hình mở:

Khoảng cách đang dần thu hẹp. Các mô hình mở như Qwen-72B, Llama-2-70b-chat và Mistral-Medium hiện đang cạnh tranh với các hệ thống đóng. Các công ty công nghệ lớn thậm chí còn đang mở nguồn nhiều hơn cho dòng sản phẩm của mình với Gemma của Google và Phi-4 của Microsoft có các biến thể mở, và Llama 2 của Meta đã tìm thấy sức hút thương mại vào năm 2023.

  • Vượt ra ngoài Chatbot:

Các mô hình mở không chỉ bắt kịp trong văn bản; thay vào đó, họ đã dẫn đầu những đột phá trong các tác vụ hình ảnh (Stable Diffusion) và thị giác (CLIP), tăng cường sự tự tin vào các phương pháp tiếp cận mở.

  • Giải pháp lai:

Nhiều nhóm kết hợp các dịch vụ đóng (ví dụ: GPT-4) cho các khối lượng công việc cốt lõi với các mô hình mở nhỏ hơn để thử nghiệm, đạt được cả tính ổn định và tính linh hoạt.

  • Trong thực tế:

Đối với các tác vụ quan trọng (như tóm tắt nâng cao hoặc mã hóa), một mô hình đóng hàng đầu có thể là an toàn nhất hiện nay. Nếu bạn cần tùy chỉnh hoặc hiểu sâu về hành vi của mô hình, các mô hình mở hiện mang lại hiệu suất cạnh tranh với khả năng tinh chỉnh. Các khảo sát gần đây thậm chí còn cho thấy rằng "các mô hình nguồn mở nhỏ có thể theo kịp các mô hình nguồn đóng" trong nhiều tác vụ.

Niềm tin dựa trên sự giám sát pháp lý. Đạo luật AI của EU phân loại tất cả các mô hình nền tảng - mở hoặc đóng - theo mức độ rủi ro, đánh giá lợi ích kinh tế của nguồn mở đồng thời đảm bảo an toàn. Chính sách của Hoa Kỳ (Sắc lệnh Hành pháp AI năm 2023 của Biden) tập trung vào các phương pháp hay nhất của nhà cung cấp hơn là các nhãn mở. Tại Châu Âu, người dùng mô hình đóng phải chứng minh sự tuân thủ; người sửa đổi mô hình mở có thể phải chịu các nghĩa vụ quản trị dữ liệu.

Trên thực tế, điều này có nghĩa là các tổ chức phải tuân thủ các tiêu chuẩn minh bạch theo cả hai cách. Ví dụ: nếu bạn sử dụng mô hình đóng ở Châu Âu cho một ứng dụng có rủi ro cao, bạn phải chứng minh sự tuân thủ (ngay cả khi bạn không thể xem mã). Nếu bạn sửa đổi một mô hình mở, bạn có thể phải đối mặt với các nghĩa vụ pháp lý mới (như quản trị dữ liệu) như báo cáo của R Street đã cảnh báo.

Các phương pháp hay nhất

Hầu hết các chuyên gia ủng hộ phương pháp kết hợp: áp dụng các biện pháp kiểm soát truy cập hoặc cấp phép cho các mô hình nguồn mở mạnh mẽ ("lõi mở") và liên quan đến việc thiết lập chuẩn mực cộng đồng (ví dụ: hướng dẫn "phát hành có trách nhiệm"), trong khi các nhà cung cấp nguồn đóng công bố các tuyên bố về đạo đức và hợp tác về các tiêu chuẩn. Việc ra quyết định linh hoạt (quyền truy cập theo tầng cho các hệ thống mở và quy trình kiểm toán mở cho các hệ thống đóng) đảm bảo tính trách nhiệm.

Tìm hiểu cách bắt đầu Vibe Coding với AI (một cách dễ dàng).

Bảo mật: Lỗ hổng và Phòng thủ

Bảo mật củng cố niềm tin. Cả hệ thống AI mở và đóng đều phải đối mặt với các cuộc tấn công, nhưng phương pháp khác nhau:

  • Tấn công mô hình mở

Mã và trọng số công khai khiến các cuộc tấn công xâm phạm quyền riêng tư và đầu độc dễ dàng hơn. Các mối đe dọa như đảo ngược mô hình, suy luận thành viên, rò rỉ dữ liệu và cửa hậu là có thật, nhưng các bản vá do cộng đồng thúc đẩy và tinh chỉnh đồng nghĩa với việc các bản sửa lỗi có thể được triển khai nhanh chóng khi phát hiện ra lỗ hổng.

  • Tấn công mô hình đóng

Các nội dung ẩn bên trong yêu cầu bạn phải tin tưởng vào quá trình kiểm tra bảo mật của nhà cung cấp, nhưng lỗi vẫn có thể lọt qua. Ví dụ: một mô hình nền tảng nguồn mở đã từng bị lộ khóa API và nhật ký trò chuyện do lỗi. Để phòng thủ, nhiều nhà cung cấp triển khai tường lửa AI quét đầu vào và lọc đầu ra, đồng thời thực thi các lệnh gọi API đã xác thực bằng cách ghi nhật ký và giới hạn tốc độ.

  • Rủi ro nội bộ và chuỗi cung ứng

Các dự án nguồn mở phải bảo vệ chống lại các mã độc hại, trong khi các hệ thống đóng phải bảo mật đường ống dữ liệu và phần cứng của chúng. Các biện pháp phòng thủ phổ biến bao gồm kiểm toán mã chính thức, phần cứng được chứng nhận và môi trường tính toán đáng tin cậy.

  • Tìm kiếm sự cân bằng

Các chuyên gia khuyến nghị kết hợp tính minh bạch và kiểm soát: áp dụng thẻ mẫu và đánh giá bảo mật thường xuyên, công bố báo cáo minh bạch và thuê các "nhóm đỏ" của bên thứ ba để thăm dò cả mô hình mở và đóng. Cách tiếp cận này kết hợp sự giám sát của cộng đồng với các biện pháp bảo vệ cấp doanh nghiệp.


Quan điểm và Nền tảng của Nhà phát triển

Niềm tin của các nhà phát triển phụ thuộc vào cộng đồng và công cụ. Nhiều kỹ sư ưa chuộng mã nguồn mở để học hỏi và thử nghiệm trên các nền tảng như GitHub và Hugging Face. Các trang web tuyển dụng như Index.dev kiểm tra và tuyển chọn các nhà phát triển lành nghề, đảm bảo những người đóng góp đáng tin cậy cho bất kỳ dự án nào, dù mở hay đóng. Sự tin tưởng vào người viết mã AI cũng quan trọng như chính mã nguồn.

Sự tham gia của cộng đồng thúc đẩy niềm tin: các công ty phát hành mô hình mở hợp tác với các diễn đàn nhà phát triển để nhận phản hồi. Theo khảo sát StackOverflow đã đề cập trước đó, 57% nhà phát triển ưa chuộng các dự án mã nguồn mở trong khi chỉ 30% ủng hộ công nghệ độc quyền. Tư duy ủng hộ mở này dẫn đến việc báo cáo vấn đề, cải tiến và chia sẻ kiến thức nhiều hơn.

Các doanh nghiệp e ngại mô hình mở hơn các lỗ hổng quản trị giờ đây có thể lựa chọn các dự án mở cung cấp hỗ trợ hoặc chứng nhận cao cấp. Trong khi đó, các nhà cung cấp mô hình đóng cũng đang thu hút các nhà phát triển - ví dụ như Microsoft đã mở mã nguồn một số phần của dịch vụ nhận thức.

Điểm chính:

Niềm tin không chỉ nằm ở nhãn mở hay đóng. Nó phát triển thông qua lộ trình minh bạch, mô hình được chứng nhận và nhân tài được kiểm tra từ các mạng lưới đáng tin cậy.

Vậy, bạn nên quyết định mô hình nào đáng tin cậy? Hãy cân nhắc:

Mẹo thiết thực:

  • Ai nên quyết định?

Đội ngũ kỹ thuật và pháp lý của bạn, với sự đóng góp từ các chuyên viên đạo đức và có thể là các nhà lãnh đạo cộng đồng các nhà phát triển.

  • Cần làm gì?

Đánh giá các mô hình thông qua các điểm chuẩn (như trong các bài báo gần đây), thực hiện các bài kiểm tra bảo mật và kiểm tra giấy phép.

Sử dụng từng mô hình ở đâu/khi nào?

Sử dụng mô hình mở cho nghiên cứu, công cụ nội bộ và các sản phẩm do cộng đồng thúc đẩy; sử dụng mô hình đóng cho các hệ thống sản xuất quan trọng, nơi các đảm bảo là tối quan trọng.

  • Tại sao nên tin tưởng mô hình này hơn mô hình kia?

Điều này phụ thuộc vào khả năng chịu rủi ro và các giá trị của bạn: tính mở so với kiểm soát.

  • Làm thế nào để xây dựng niềm tin?

Kiểm tra kỹ lưỡng các nhà phát triển của bạn (xem các nền tảng như Index.dev), áp dụng các phương pháp hay nhất (kiểm toán thường xuyên, "nhóm đỏ", tài liệu) và cập nhật chính sách (ví dụ: tuân thủ Đạo luật AI của EU).

Kết luận: Cân bằng Niềm tin trong Thế giới AI

Việc lựa chọn giữa các mô hình AI mở và đóng không phải là chọn phe, mà là hiểu rõ nhu cầu của bạn.

Tính minh bạch, hiệu suất, bảo mật và cộng đồng đều là những yếu tố tạo nên niềm tin, và sự cân bằng phù hợp thường nằm ở việc kết hợp cả hai. Nguồn mở mang lại sự linh hoạt và khả năng cộng tác, trong khi nguồn đóng mang lại sự tinh tế và trách nhiệm giải trình.

Đối với nhiều tổ chức, chiến lược kết hợp là hợp lý nhất: tận dụng các mô hình mở để đổi mới và tinh chỉnh, đồng thời triển khai các mô hình đóng khi độ tin cậy là yếu tố then chốt. Điều quan trọng nhất là cách thức bạn triển khai, quản lý và bố trí nhân sự cho các nỗ lực AI của mình.

Các nền tảng như Index.dev đóng một vai trò quan trọng trong phương trình này, kết nối các doanh nghiệp với các nhà phát triển được kiểm tra kỹ lưỡng, những người mang đến cả chuyên môn và trách nhiệm giải trình. Bởi vì cuối cùng, AI đáng tin cậy không chỉ nằm ở mã nguồn. Nó nằm ở những con người đằng sau nó và các hoạt động thực hành xung quanh nó.

Niềm tin không phải là một nút bấm, nó là một hệ thống. Hãy xây dựng nó một cách có chủ đích.

Đối với các nhà phát triển:

Kết nối với các đội ngũ toàn cầu hàng đầu đang xây dựng các dự án AI có đạo đức. Làm việc từ xa, linh hoạt và bổ ích, chỉ có trên Index.dev.

Đối với khách hàng:

Cần các giải pháp AI đáng tin cậy? Thuê các nhà phát triển được kiểm tra từ Index.dev để xây dựng các hệ thống AI an toàn và đáng tin cậy cho doanh nghiệp của bạn.

Trust depends on your goals: closed models lead in performance and control, while open models win on transparency and flexibility. Discover which approach offers the best trust, security, and performance.

AI is transforming every industry, but trusting the right models is critical. The stakes are high: trust, governance, performance, ethics, and security all hang in the balance.

Closed-source models (e.g. GPT-4, Claude) lead today in raw performance and centralized safety controls.

Open-source models (e.g. Llama 2, Mistral) shine in transparency, customization, and community vetting.

Recent benchmarks show closed-source still outperforms on average, but open-source is narrowing the gap fast. Security experts warn open models risk easier attacks due to public weights, yet their transparency accelerates fixes, while closed models hide vulnerabilities but rely on vendor trust for patches.

Surveys of developers reinforce this debate: younger and early-career engineers especially value transparency. In fact, a 2025 StackOverflow survey found that “trust and learning are central to younger developers’ interactions with open-source AI”.

Major AI labs mirror this split: OpenAI keeps its flagship models behind API walled gardens for safety, while companies like Meta and Anthropic have open-sourced many models. Even policy makers are taking notice with the EU’s AI Act explicitly highlighting open-source as a public good.

In this article, we will dive deep into the open vs closed AI debate. We’ll explain what each approach means, who favors which, why trust matters, when and where each is appropriate, and how they compare on key fronts. Along the way we’ll examine performance benchmarks, security trade-offs, ethical considerations, and governance and policy implications.

By the end, you’ll have a clear, evidence-backed view on which models (and development practices) inspire confidence in which contexts.

Ready to build with trusted AI? Join Index.dev and connect with top companies seeking skilled AI developers!

Who’s Involved: Developers, Companies, and Communities

Who is shaping this debate? On one side are the open-source community and independent developers. The debate pits the open-source community (developers behind PyTorch, TensorFlow, Hugging Face, and countless GitHub projects) against AI companies that keep their latest models proprietary for control and IP protection.

Open advocates, 82% of whom have contributed to open-source tech, prize transparency, peer review, and shared innovation. Enterprises and regulators, meanwhile, lean on closed-source solutions (e.g., Azure OpenAI) to meet strict compliance in sectors like healthcare and finance. At conferences and on policy platforms, experts debate ‘open collaboration vs. closed control’ as a fundamental split in AI strategy.

Governments also weigh in: the EU’s 2023 AI Act highlights open‐source foundation models’ economic benefits while insisting on safety, and U.S. and Chinese policies similarly debate openness versus control. Yet these lines are blurring as OpenAI’s Sam Altman has noted the limits of full secrecy, and Meta’s Llama 2 release underscores industry-wide collaboration.

What Is Open-Source and Closed-Source AI?

What do we mean by “open-source AI” versus “closed-source AI”? In practice, open-source AI models are those whose code, model weights, and training data are published under permissive licenses (MIT, Apache, GPL, etc.) so that everybody can use and alter it. Consider projects such as LLaMA (Meta models) or Stable Diffusion.

They live on platforms like Hugging Face or GitHub, and a community of volunteers can inspect and improve them.

The key promise: full transparency. You can peer into architecture, training data (if published), and tweak the model.

By contrast, closed-source AI models are proprietary systems, often offered only via an API or commercial license. Companies keep the weights and code behind the scenes. You might use them through cloud services or products (e.g. ChatGPT, Bard, Azure Cognitive Services). The inner workings are not visible, and usage terms are fixed by the provider. The trade-off is control: providers say closed models let them enforce policies, fix bugs centrally, and monetize more easily.

Between these poles there are hybrid approaches:

  1. Tiered models

  2. Controlled releases

  3. Open core” with proprietary add-ons

Some systems (like Llama 2) are open with limited licenses; others are open-weight but require API keys. These hybrids attempt to balance openness with oversight.

The label also extends to tools: many libraries (PyTorch, Hugging Face Transformers, etc.) are open-source, enabling AI even for closed models. When we talk “open vs closed AI,” we're really asking who can see or change the model’s inner workings.

In essence, open-source AI = transparency and community, while closed-source AI = proprietary control.

Each side trusts different mechanisms to ensure reliable, ethical AI.

Explore 20 high-impact open-source GitHub projects to contribute to.

Pros and Cons of Each Approach

Why is this trust debate so heated? Because AI models can have profound impacts (some unintended) and handling that requires confidence in how they work.

Here are key factors:

  • Transparency vs. Secrecy
    Open models let us audit code, inspect data sources, and test for biases, building confidence through visibility. That same openness exposes vulnerabilities (backdoors, data leaks) in plain sight. Closed models keep their internals hidden, so we must trust the provider’s safety and bias-mitigation claims.

  • Security
    Open code invites security experts to find and fix flaws but this means that it also gives attackers the same blueprints. Closed models hide their architecture but rely on a few certified experts and internal audits. Providers like OpenAI add layers (for example, “AI firewalls” that vet prompts) to balance transparency with protection.

  • Performance
    Proprietary LLMs (GPT-4, Claude) still top benchmarks, so we trust them for high-stakes tasks. But open models such as Mistral and Llama-2-70b are closing the gap fast, and in niche scenarios they can even outperform closed systems.

  • Ethics and Bias
    With open models, we can review training data and apply ethical filters ourselves. That visibility also makes misuse (for disinformation or hate speech) easier. Closed models enforce rules centrally, but we must have faith in the vendor’s ethical priorities. Some propose “tiered openness” or public audits to get the best of both worlds.

  • Governance
    Regulators face a challenge: if anyone can modify an open model, who’s accountable? Several recent papers (e.g. R Street Institute) argue regulators must adapt, since traditional product liability doesn’t fit easily. The EU AI Act acknowledges open-source benefits but requires safety guardrails, while U.S. policies focus on vendor responsibilities regardless of code status. Whether through community norms or corporate compliance, trustworthy governance is essential.

  • Community and Support
    Open-source communities (forums, GitHub) offer rapid peer help and collective innovation as 57% of developers enjoy contributing to open projects. Closed ecosystems provide official SLAs and vendor support. Platforms like Index.dev bridge both by vetting talent, so we know skilled, trustworthy people are behind every AI system.

In short, open-source AI tends to earn trust through transparency, collaboration, and community oversight, at the cost of exposure to vulnerabilities and (until recently) lagging raw performance.

Closed-source AI earns trust through centralized control, security measures, and brand reputation, but it asks users to have faith in unseen processes. Both approaches have merits and pitfalls, and real-world solutions often mix elements of each.

Performance and Reliability: Head-to-Head

Let’s dig into performance which is a key aspect of trust for many users. If an AI chatbot reliably gives useful answers, users will trust it more. Recent benchmarks clearly show the landscape:

  • Current Leaders:
    Proprietary LLMs like GPT-4, Google’s Gemini, and Claude top benchmarks. In “ELO score” comparisons, closed models consistently outshine open ones, with open models clustering at the lower end.

  • Open Gains:
    The gap is closing. Open models such as Qwen-72B, Llama-2-70b-chat, and Mistral-Medium now rival closed systems. Big Tech is even open-sourcing more of its lineup with Google’s Gemma and Microsoft’s Phi-4 having open variants, and Meta’s Llama 2 found commercial traction in 2023.

  • Beyond Chatbots:
    Open models aren’t just catching up in text; rather they’ve led breakthroughs in image (Stable Diffusion) and vision (CLIP) tasks, boosting confidence in open approaches.

  • Hybrid Solutions:
    Many teams combine closed services (e.g., GPT-4) for core workloads with smaller open models for experimentation, achieving both stability and flexibility.

  • In Practice:
    For mission-critical tasks (like advanced summarization or coding), a top-tier closed model may be safest today. If you need customization or a deep understanding of the model’s behavior, open models now deliver competitive performance with fine-tuning capabilities. Recent surveys even show that “small open-source models can keep up well with closed-source models” on many tasks.

Choosing the right tool means balancing immediate reliability and long-term adaptability. For learning and non-critical projects, open models shine with enterprises launching new AI features often start with closed offerings and layer in open frameworks for flexibility.

Ethics, Bias, and Governance

Ethics and Bias



Ethical AI demands responsible, fair behavior. Open models shine in transparency—anyone can audit and correct biases (e.g. Wikimedia’s “open-weight AI” policy and academic ethics frameworks)—but they’re also easier to tamper with. Closed models embed ethics through provider filters and alignment training.

Still, openness fuels safety research: the collaborative ecosystem drives new safeguards even as it spawns some malicious variants. Both must meet regulations like the EU AI Act, which mandates human oversight and “Human Autonomy.”

Governance and Policy

Trust rests on legal oversight. The EU AI Act treats all foundation models—open or closed—by risk tier, valuing open-source’s economic benefits while enforcing safety. U.S. policy (Biden’s 2023 AI Executive Order) focuses on vendor best practices over openness labels. In Europe, closed-model users must prove compliance; open-model modifiers may incur data-governance duties.

Practically, this means organizations must align with transparency standards either way. For example, if you use a closed model in Europe for a high-risk application, you have to demonstrate compliance (even if you can't see the code). If you modify an open model, you may face new legal duties (like data governance) as the R Street report warns.

Best Practices

Most experts advocate a hybrid approach: apply access controls or licensing to powerful open-source models (“open-core”) and involve community norm-setting (e.g. “responsible release” guidelines), while closed-source vendors publish ethics statements and collaborate on standards. Agile decision-making (tiered access for open systems and open audit pipelines for closed ones) ensures accountability.

Learn how to start Vibe Coding with AI(the easy way).

Security: Vulnerabilities and Defence

Security underpins trust. Open and closed AI systems both face attacks, but the methods differ:

  • Open-model attacks
    Public code and weights make privacy and poisoning attacks easier. Threats like model inversion, membership inference, data leakage and backdoors are real, but community-driven patches and fine-tuning mean fixes can roll out quickly once flaws are spotted.

  • Closed-model attacks
    Hidden internals require you to trust the provider’s security testing, yet bugs still slip through. For example, an open-source foundation model once exposed API keys and chat logs due to a flaw. To defend, many vendors deploy AI firewalls that scan inputs and filter outputs, and they enforce authenticated API calls with logging and rate limits.

  • Insider and supply-chain risks
    Open-source projects must guard against malicious code contributions, while closed systems must secure their data pipelines and hardware. Common defenses include formal code audits, certified hardware and trusted compute environments.

  • Finding the balance
    Experts recommend combining transparency and control: adopt model cards and regular security reviews, publish transparency reports, and engage third-party“red teams” to probe both open and closed models. This approach merges community scrutiny with enterprise-grade safeguards.

Developer Perspective and Platforms

Trust for developers hinges on community and tooling. Many engineers favour open source to learn and experiment on platforms like GitHub and Hugging Face. Talent sites such as Index.dev vet and curate skilled developers, ensuring trusted contributors to any project, open or closed. Confidence in who writes the AI code is nearly as vital as the code itself.

Community engagement boosts trust: firms releasing open models partner with developer forums for feedback. According to the previously mentioned StackOverflow survey, 57% of developers prefer open-source projects while only 30% favour proprietary technology. This pro-open mindset leads to more issue reporting, enhancements and knowledge sharing.

Enterprises wary of open models over governance gaps can now opt for open projects that provide premium support or certification. Meanwhile, closed-model providers are courting developers too—Microsoft, for instance, has open-sourced parts of its cognitive services.

Key takeaway:

Trust does not lie solely in open or closed labels. It grows through transparent roadmaps, certified models and vetted talent from reliable networks.

So, how should you decide which model to trust? Consider:

Practical Tips:

  • Who should decide?
    Your engineering and legal teams, with input from ethics officers and maybe developer community leaders.

  • What to do?
    Evaluate models via benchmarks (like those in recent papers), perform security tests, and check licenses.

  • Where/When to use each?
    Use open for research, internal tools, and community-driven products; use closed for critical production systems where guarantees are paramount.

  • Why trust one over the other?
    It boils down to your risk tolerance and values: openness vs control.

  • How to build trust?
    Vet your developers (see platforms like Index.dev), adopt best practices (regular audits, “red teams”, documentation), and stay updated on policy (e.g. EU AI Act compliance).

Conclusion: Balancing Trust in an AI World

Choosing between open and closed AI models isn’t about picking sides, it’s about understanding your needs.

Transparency, performance, security, and community all factor into trust, and the right balance often lies in combining both worlds. Open-source offers you flexibility and collaboration while closed-source provides polish and accountability.

For many organizations, a hybrid strategy makes the most sense: leverage open models for innovation and fine-tuning, and deploy closed models where reliability is critical. What matters most is how you implement, govern, and staff your AI efforts.

Platforms like Index.dev play a valuable role in this equation, connecting businesses with thoroughly vetted developers who bring both expertise and accountability to the table. Because in the end, trustworthy AI isn’t just about the code. It’s about the people behind it, and the practices around it.

Trust isn’t a toggle, it’s a system. Build it deliberately.

For Developers:

Get matched with top global teams building ethical AI projects. Remote, flexible, and rewarding, only on Index.dev.

For Clients:

Need trusted AI solutions? Hire vetted developers from Index.dev to build secure and reliable AI systems for your business.

Dịch: Lê Trung Nghĩa

letrungnghia.foss@gmail.com