Dùng cho cáp BMS, BUS, công nghiệp, thiết bị đo lường.

Khi Lễ hội mùa xuân kết thúc, sự phấn khích xung quanh DeepSeek vẫn còn mạnh mẽ. Kỳ nghỉ gần đây đã làm nổi bật ý thức cạnh tranh đáng kể trong ngành công nghệ, với nhiều cuộc thảo luận và phân tích về "con cá trê" này. Thung lũng Silicon đang trải qua cảm giác khủng hoảng chưa từng có: những người ủng hộ mã nguồn mở lại lên tiếng, và thậm chí OpenAI cũng đang đánh giá lại liệu chiến lược mã nguồn đóng của mình có phải là lựa chọn tốt nhất hay không. Mô hình mới về chi phí tính toán thấp hơn đã gây ra phản ứng dây chuyền giữa các gã khổng lồ chip như Nvidia, dẫn đến mức lỗ kỷ lục về giá trị thị trường trong một ngày trong lịch sử thị trường chứng khoán Hoa Kỳ, trong khi các cơ quan chính phủ đang điều tra về tính tuân thủ của các chip mà DeepSeek sử dụng. Giữa những đánh giá trái chiều về DeepSeek ở nước ngoài, trong nước, thì ứng dụng này đang có sự tăng trưởng phi thường. Sau khi ra mắt mô hình R1, ứng dụng liên quan đã chứng kiến sự gia tăng lưu lượng truy cập, cho thấy sự tăng trưởng trong các lĩnh vực ứng dụng sẽ thúc đẩy toàn bộ hệ sinh thái AI tiến lên. Mặt tích cực là DeepSeek sẽ mở rộng khả năng ứng dụng, cho thấy việc dựa vào ChatGPT sẽ không tốn kém như vậy trong tương lai. Sự thay đổi này đã được phản ánh trong các hoạt động gần đây của OpenAI, bao gồm việc cung cấp một mô hình lý luận có tên là o3-mini cho người dùng miễn phí để đáp lại DeepSeek R1, cũng như các bản nâng cấp tiếp theo khiến chuỗi suy nghĩ của o3-mini trở nên công khai. Nhiều người dùng ở nước ngoài đã bày tỏ lòng biết ơn đối với DeepSeek vì những phát triển này, mặc dù chuỗi suy nghĩ này chỉ đóng vai trò là bản tóm tắt.
Về mặt lạc quan, rõ ràng là DeepSeek đang thống nhất các đối thủ trong nước. Với trọng tâm là giảm chi phí đào tạo, nhiều nhà sản xuất chip thượng nguồn, nhà cung cấp đám mây trung gian và nhiều công ty khởi nghiệp đang tích cực tham gia hệ sinh thái, nâng cao hiệu quả chi phí khi sử dụng mô hình DeepSeek. Theo các bài báo của DeepSeek, việc đào tạo hoàn chỉnh mô hình V3 chỉ cần 2,788 triệu giờ GPU H800 và quy trình đào tạo có tính ổn định cao. Kiến trúc MoE (Hỗn hợp các chuyên gia) đóng vai trò quan trọng trong việc giảm chi phí đào tạo trước xuống gấp mười lần so với Llama 3 với 405 tỷ tham số. Hiện tại, V3 là mô hình đầu tiên được công nhận công khai thể hiện tính thưa thớt cao như vậy trong MoE. Ngoài ra, MLA (Chú ý nhiều lớp) hoạt động theo cơ chế hiệp đồng, đặc biệt là ở khía cạnh lý luận. "MoE càng thưa thớt thì kích thước lô cần thiết trong quá trình lý luận để tận dụng tối đa sức mạnh tính toán càng lớn, trong đó kích thước của KVCache là yếu tố hạn chế chính; MLA làm giảm đáng kể kích thước KVCache", một nhà nghiên cứu từ Chuanjing Technology đã lưu ý trong một phân tích cho AI Technology Review. Nhìn chung, thành công của DeepSeek nằm ở sự kết hợp của nhiều công nghệ khác nhau, không chỉ một công nghệ duy nhất. Những người trong ngành ca ngợi khả năng kỹ thuật của nhóm DeepSeek, lưu ý đến sự xuất sắc của họ trong đào tạo song song và tối ưu hóa cho người vận hành, đạt được kết quả đột phá bằng cách tinh chỉnh mọi chi tiết. Phương pháp tiếp cận nguồn mở của DeepSeek tiếp tục thúc đẩy sự phát triển chung của các mô hình lớn và dự đoán rằng nếu các mô hình tương tự mở rộng thành hình ảnh, video, v.v., điều này sẽ kích thích đáng kể nhu cầu trong toàn ngành.
Cơ hội cho các dịch vụ lý luận của bên thứ ba
Dữ liệu cho thấy kể từ khi phát hành, DeepSeek đã tích lũy được 22,15 triệu người dùng hoạt động hàng ngày (DAU) chỉ trong vòng 21 ngày, đạt 41,6% cơ sở người dùng của ChatGPT và vượt qua 16,95 triệu người dùng hoạt động hàng ngày của Doubao, do đó trở thành ứng dụng phát triển nhanh nhất trên toàn cầu, đứng đầu Apple App Store tại 157 quốc gia/khu vực. Tuy nhiên, trong khi người dùng đổ xô đến, tin tặc mạng đã không ngừng tấn công ứng dụng DeepSeek, gây áp lực đáng kể lên máy chủ của ứng dụng. Các nhà phân tích trong ngành tin rằng điều này một phần là do DeepSeek triển khai thẻ để đào tạo trong khi thiếu đủ sức mạnh tính toán để lập luận. Một người trong ngành đã thông báo với AI Technology Review rằng "Các sự cố máy chủ thường xuyên có thể được giải quyết dễ dàng bằng cách tính phí hoặc tài trợ để mua thêm máy; cuối cùng, điều đó phụ thuộc vào quyết định của DeepSeek". Điều này thể hiện sự đánh đổi khi tập trung vào công nghệ so với sản xuất hàng loạt. DeepSeek chủ yếu dựa vào lượng tử hóa để tự duy trì, nhận được ít nguồn tài trợ bên ngoài, dẫn đến áp lực dòng tiền tương đối thấp và môi trường công nghệ tinh khiết hơn. Hiện tại, xét theo các vấn đề đã nêu ở trên, một số người dùng đang thúc giục DeepSeek trên phương tiện truyền thông xã hội nâng cao ngưỡng sử dụng hoặc giới thiệu các tính năng trả phí để tăng sự thoải mái cho người dùng. Ngoài ra, các nhà phát triển đã bắt đầu sử dụng API chính thức hoặc API của bên thứ ba để tối ưu hóa. Tuy nhiên, nền tảng mở của DeepSeek gần đây đã thông báo, "Các tài nguyên máy chủ hiện tại đang khan hiếm và việc nạp tiền dịch vụ API đã bị đình chỉ."
Điều này chắc chắn mở ra nhiều cơ hội hơn cho các nhà cung cấp bên thứ ba trong lĩnh vực cơ sở hạ tầng AI. Gần đây, nhiều gã khổng lồ đám mây trong nước và quốc tế đã ra mắt API mô hình của DeepSeek—những gã khổng lồ nước ngoài như Microsoft và Amazon là những công ty đầu tiên tham gia vào cuối tháng 1. Công ty dẫn đầu trong nước, Huawei Cloud, đã có động thái đầu tiên, phát hành các dịch vụ lý luận DeepSeek R1 và V3 hợp tác với Silicon-based Flow vào ngày 1 tháng 2. Các báo cáo từ AI Technology Review chỉ ra rằng các dịch vụ của Silicon-based Flow đã chứng kiến sự gia tăng người dùng, về cơ bản là "làm sập" nền tảng. Ba công ty công nghệ lớn—BAT (Baidu, Alibaba, Tencent) và ByteDance—cũng đã đưa ra các ưu đãi giá rẻ, có thời hạn bắt đầu từ ngày 3 tháng 2, gợi nhớ đến cuộc chiến giá của các nhà cung cấp đám mây vào năm ngoái do sự ra mắt mô hình V2 của DeepSeek gây ra, khi DeepSeek bắt đầu được mệnh danh là "kẻ giết người giá rẻ". Những hành động điên cuồng của các nhà cung cấp đám mây phản ánh mối quan hệ bền chặt trước đó giữa Microsoft Azure và OpenAI, khi vào năm 2019, Microsoft đã đầu tư 1 tỷ đô la đáng kể vào OpenAI và thu được lợi ích sau khi ChatGPT ra mắt vào năm 2023. Tuy nhiên, mối quan hệ chặt chẽ này bắt đầu rạn nứt sau khi Meta mã nguồn mở Llama, cho phép các nhà cung cấp khác bên ngoài hệ sinh thái Microsoft Azure cạnh tranh với các mô hình lớn của họ. Trong trường hợp này, DeepSeek không chỉ vượt qua ChatGPT về sức nóng của sản phẩm mà còn giới thiệu các mô hình mã nguồn mở sau bản phát hành o1, tương tự như sự phấn khích xung quanh sự hồi sinh của Llama đối với GPT-3.
Trên thực tế, các nhà cung cấp dịch vụ đám mây cũng đang định vị mình là cổng giao thông cho các ứng dụng AI, nghĩa là việc thắt chặt mối quan hệ với các nhà phát triển sẽ chuyển thành lợi thế phòng ngừa. Các báo cáo chỉ ra rằng Baidu Smart Cloud đã có hơn 15.000 khách hàng sử dụng mô hình DeepSeek thông qua nền tảng Qianfan vào ngày ra mắt mô hình. Ngoài ra, một số công ty nhỏ hơn đang cung cấp các giải pháp, bao gồm Silicon-based Flow, Luchen Technology, Chuanjing Technology và nhiều nhà cung cấp AI Infra khác đã triển khai hỗ trợ cho các mô hình DeepSeek. AI Technology Review đã biết rằng các cơ hội tối ưu hóa hiện tại cho các triển khai cục bộ của DeepSeek chủ yếu nằm ở hai lĩnh vực: một là tối ưu hóa các đặc điểm thưa thớt của mô hình MoE bằng cách sử dụng phương pháp lý luận hỗn hợp để triển khai mô hình MoE 671 tỷ tham số cục bộ trong khi sử dụng suy luận GPU/CPU lai. Ngoài ra, việc tối ưu hóa MLA là rất quan trọng. Tuy nhiên, hai mô hình của DeepSeek vẫn phải đối mặt với một số thách thức trong quá trình tối ưu hóa triển khai. "Do kích thước của mô hình và nhiều tham số, việc tối ưu hóa thực sự phức tạp, đặc biệt là đối với các triển khai cục bộ, nơi đạt được sự cân bằng tối ưu giữa hiệu suất và chi phí sẽ là thách thức", một nhà nghiên cứu từ Chuanjing Technology cho biết. Rào cản quan trọng nhất nằm ở việc vượt qua giới hạn dung lượng bộ nhớ. "Chúng tôi áp dụng phương pháp cộng tác không đồng nhất để tận dụng tối đa CPU và các tài nguyên tính toán khác, chỉ đặt các phần không được chia sẻ của ma trận MoE thưa thớt trên CPU/DRAM để xử lý bằng các toán tử CPU hiệu suất cao, trong khi các phần dày đặc vẫn nằm trên GPU", ông giải thích thêm. Các báo cáo chỉ ra rằng khuôn khổ nguồn mở KTransformers của Chuanjing chủ yếu đưa nhiều chiến lược và toán tử khác nhau vào triển khai Transformers ban đầu thông qua một mẫu, tăng đáng kể tốc độ suy luận bằng các phương pháp như CUDAGraph. DeepSeek đã tạo ra cơ hội cho các công ty khởi nghiệp này, vì lợi ích tăng trưởng đang trở nên rõ ràng; nhiều công ty đã báo cáo sự gia tăng đáng kể về khách hàng sau khi ra mắt API DeepSeek, nhận được các yêu cầu từ các khách hàng trước đây đang tìm kiếm các phương pháp tối ưu hóa. Những người trong ngành đã lưu ý, "Trước đây, các nhóm khách hàng đã thành danh thường bị khóa chặt trong các dịch vụ chuẩn hóa của các công ty lớn hơn, bị ràng buộc chặt chẽ bởi lợi thế về chi phí do quy mô. Tuy nhiên, sau khi hoàn tất triển khai DeepSeek-R1/V3 trước Tết Nguyên đán, chúng tôi đột nhiên nhận được yêu cầu hợp tác từ một số khách hàng nổi tiếng, và thậm chí cả những khách hàng trước đây không hoạt động cũng đã chủ động liên hệ để giới thiệu các dịch vụ DeepSeek của chúng tôi." Hiện tại, có vẻ như DeepSeek đang khiến hiệu suất suy luận mô hình ngày càng trở nên quan trọng và với việc áp dụng rộng rãi hơn các mô hình lớn, điều này sẽ tiếp tục ảnh hưởng đáng kể đến sự phát triển trong ngành AI Infra. Nếu một mô hình cấp DeepSeek có thể được triển khai tại địa phương với chi phí thấp, thì nó sẽ hỗ trợ rất nhiều cho các nỗ lực chuyển đổi số của chính phủ và doanh nghiệp. Tuy nhiên, vẫn còn nhiều thách thức, vì một số khách hàng có thể có kỳ vọng cao về khả năng của mô hình lớn, khiến việc cân bằng hiệu suất và chi phí trở nên quan trọng hơn trong quá trình triển khai thực tế.
Để đánh giá liệu DeepSeek có tốt hơn ChatGPT hay không, điều cần thiết là phải hiểu những điểm khác biệt chính, điểm mạnh và trường hợp sử dụng của chúng. Sau đây là so sánh toàn diện:
Tính năng/Góc nhìn | Tìm kiếm sâu | Trò chuyệnGPT |
---|---|---|
Quyền sở hữu | Được phát triển bởi một công ty Trung Quốc | Được phát triển bởi OpenAI |
Mô hình nguồn | Mã nguồn mở | Độc quyền |
Trị giá | Miễn phí sử dụng; tùy chọn truy cập API rẻ hơn | Giá đăng ký hoặc trả tiền theo lần sử dụng |
Tùy chỉnh | Có khả năng tùy chỉnh cao, cho phép người dùng điều chỉnh và xây dựng dựa trên nó | Có thể tùy chỉnh giới hạn |
Hiệu suất trong các nhiệm vụ cụ thể | Xuất sắc trong một số lĩnh vực như phân tích dữ liệu và tìm kiếm thông tin | Đa năng với hiệu suất mạnh mẽ trong các nhiệm vụ viết sáng tạo và đàm thoại |
Hỗ trợ ngôn ngữ | Tập trung mạnh vào ngôn ngữ và văn hóa Trung Quốc | Hỗ trợ ngôn ngữ rộng rãi nhưng tập trung vào Hoa Kỳ |
Chi phí đào tạo | Chi phí đào tạo thấp hơn, tối ưu hóa hiệu quả | Chi phí đào tạo cao hơn, đòi hỏi nguồn lực tính toán đáng kể |
Biến thể phản ứng | Có thể đưa ra những phản hồi khác nhau, có thể bị ảnh hưởng bởi bối cảnh địa chính trị | Câu trả lời nhất quán dựa trên dữ liệu đào tạo |
Đối tượng mục tiêu | Dành cho các nhà phát triển và nhà nghiên cứu muốn có sự linh hoạt | Dành cho người dùng nói chung đang tìm kiếm khả năng đàm thoại |
Các trường hợp sử dụng | Hiệu quả hơn cho việc tạo mã và thực hiện các tác vụ nhanh | Lý tưởng để tạo văn bản, trả lời các truy vấn và tham gia đối thoại |
Góc nhìn phê phán về "Làm gián đoạn Nvidia"
Hiện tại, ngoài Huawei, một số nhà sản xuất chip trong nước như Moore Threads, Muxi, Biran Technology và Tianxu Zhixin cũng đang thích nghi với hai mô hình của DeepSeek. Một nhà sản xuất chip đã nói với AI Technology Review rằng, "Cấu trúc của DeepSeek thể hiện sự đổi mới, nhưng nó vẫn là LLM. Việc chúng tôi thích nghi với DeepSeek chủ yếu tập trung vào các ứng dụng lý luận, giúp việc triển khai kỹ thuật khá đơn giản và nhanh chóng". Tuy nhiên, cách tiếp cận của MoE đòi hỏi nhu cầu cao hơn về lưu trữ và phân phối, cùng với việc đảm bảo khả năng tương thích khi triển khai với chip trong nước, đặt ra nhiều thách thức về kỹ thuật cần được giải quyết trong quá trình thích nghi. "Hiện tại, sức mạnh tính toán trong nước không sánh được với Nvidia về khả năng sử dụng và độ ổn định, đòi hỏi sự tham gia ban đầu của nhà máy để thiết lập môi trường phần mềm, khắc phục sự cố và tối ưu hóa hiệu suất cơ bản", một chuyên gia trong ngành cho biết dựa trên kinh nghiệm thực tế. Đồng thời, "Do quy mô tham số lớn của DeepSeek R1, sức mạnh tính toán trong nước đòi hỏi nhiều nút hơn để song song hóa. Ngoài ra, thông số kỹ thuật phần cứng trong nước vẫn còn hơi lạc hậu; ví dụ, Huawei 910B hiện không thể hỗ trợ suy luận FP8 do DeepSeek giới thiệu". Một trong những điểm nổi bật của mô hình DeepSeek V3 là sự ra mắt của khuôn khổ đào tạo độ chính xác hỗn hợp FP8, đã được xác thực hiệu quả trên một mô hình cực lớn, đánh dấu một thành tựu đáng kể. Trước đây, những công ty lớn như Microsoft và Nvidia đã đề xuất công việc liên quan, nhưng vẫn còn nhiều nghi ngờ trong ngành về tính khả thi. Có thể hiểu rằng so với INT8, lợi thế chính của FP8 là lượng tử hóa sau đào tạo có thể đạt được độ chính xác gần như không mất dữ liệu trong khi tăng đáng kể tốc độ suy luận. Khi so sánh với FP16, FP8 có thể nhận ra khả năng tăng tốc lên đến hai lần trên H20 của Nvidia và tăng tốc hơn 1,5 lần trên H100. Đáng chú ý, khi các cuộc thảo luận xung quanh xu hướng sức mạnh tính toán trong nước cộng với các mô hình trong nước đang gia tăng động lực, thì suy đoán về việc liệu Nvidia có thể bị phá vỡ hay không và liệu hào CUDA có thể bị bỏ qua hay không, đang ngày càng trở nên phổ biến. Một sự thật không thể phủ nhận là DeepSeek thực sự đã khiến giá trị thị trường của Nvidia giảm đáng kể, nhưng sự thay đổi này đặt ra câu hỏi về tính toàn vẹn của sức mạnh tính toán cao cấp của Nvidia. Các câu chuyện được chấp nhận trước đây liên quan đến tích lũy tính toán do vốn thúc đẩy đang bị thách thức, nhưng Nvidia vẫn khó có thể bị thay thế hoàn toàn trong các tình huống đào tạo. Phân tích về việc sử dụng CUDA sâu rộng của DeepSeek cho thấy tính linh hoạt—chẳng hạn như sử dụng SM để giao tiếp hoặc trực tiếp thao tác với các card mạng—là điều không khả thi đối với các GPU thông thường. Quan điểm của ngành nhấn mạnh rằng hào nước của Nvidia bao gồm toàn bộ hệ sinh thái CUDA chứ không chỉ riêng CUDA, và các lệnh PTX (Thực thi luồng song song) mà DeepSeek sử dụng vẫn là một phần của hệ sinh thái CUDA. "Trong ngắn hạn, sức mạnh tính toán của Nvidia không thể bị bỏ qua—điều này đặc biệt rõ ràng trong đào tạo; tuy nhiên, việc triển khai các card trong nước để suy luận sẽ tương đối dễ dàng hơn, do đó tiến độ có thể sẽ nhanh hơn. Việc điều chỉnh các card trong nước chủ yếu tập trung vào suy luận; chưa ai có thể đào tạo mô hình hiệu suất của DeepSeek trên các card trong nước ở quy mô lớn", một nhà phân tích trong ngành nhận xét với AI Technology Review. Nhìn chung, xét về mặt suy luận, hoàn cảnh này rất đáng khích lệ đối với các chip mô hình lớn trong nước. Các cơ hội cho các nhà sản xuất chip trong nước trong lĩnh vực suy luận rõ ràng hơn do yêu cầu đào tạo quá cao, cản trở việc gia nhập. Các nhà phân tích cho rằng chỉ cần khai thác các thẻ suy luận trong nước là đủ; nếu cần, có thể mua thêm một máy, trong khi các mô hình đào tạo đặt ra những thách thức riêng—việc quản lý số lượng máy tăng lên có thể trở nên nặng nề và tỷ lệ lỗi cao hơn có thể ảnh hưởng tiêu cực đến kết quả đào tạo. Đào tạo cũng có các yêu cầu cụ thể về quy mô cụm, trong khi các yêu cầu về cụm để suy luận không quá khắt khe, do đó làm giảm các yêu cầu về GPU. Hiện tại, hiệu suất của thẻ H20 đơn lẻ của Nvidia không vượt qua được Huawei hoặc Cambrian; điểm mạnh của nó nằm ở khả năng phân cụm. Dựa trên tác động chung lên thị trường năng lượng điện toán, người sáng lập Luchen Technology, You Yang, đã lưu ý trong một cuộc phỏng vấn với AI Technology Review rằng "DeepSeek có thể tạm thời làm suy yếu việc thành lập và cho thuê các cụm tính toán đào tạo cực lớn. Về lâu dài, bằng cách giảm đáng kể chi phí liên quan đến đào tạo mô hình lớn, lý luận và ứng dụng, nhu cầu thị trường có khả năng tăng đột biến. Do đó, các lần lặp lại AI tiếp theo dựa trên điều này sẽ liên tục thúc đẩy nhu cầu bền vững trên thị trường năng lượng điện toán". Ngoài ra, "nhu cầu ngày càng tăng của DeepSeek đối với các dịch vụ suy luận và tinh chỉnh tương thích hơn với bối cảnh tính toán trong nước, nơi năng lực cục bộ tương đối yếu, giúp giảm thiểu lãng phí từ các nguồn lực nhàn rỗi sau khi thành lập cụm; điều này tạo ra các cơ hội khả thi cho các nhà sản xuất ở nhiều cấp độ khác nhau của hệ sinh thái tính toán trong nước." Luchen Technology đã hợp tác với Huawei Cloud để ra mắt các API suy luận và dịch vụ hình ảnh đám mây DeepSeek R1 series dựa trên năng lực tính toán trong nước. You Yang bày tỏ sự lạc quan về tương lai: "DeepSeek tạo niềm tin vào các giải pháp sản xuất trong nước, khuyến khích sự nhiệt tình và đầu tư lớn hơn vào năng lực tính toán trong nước trong tương lai."

Phần kết luận
DeepSeek có "tốt hơn" ChatGPT hay không tùy thuộc vào nhu cầu và mục tiêu cụ thể của người dùng. Đối với các tác vụ cần tính linh hoạt, chi phí thấp và tùy chỉnh, DeepSeek có thể vượt trội hơn. Đối với việc viết sáng tạo, tìm hiểu chung và giao diện đàm thoại thân thiện với người dùng, ChatGPT có thể dẫn đầu. Mỗi công cụ phục vụ các mục đích khác nhau, vì vậy lựa chọn sẽ phụ thuộc rất nhiều vào bối cảnh sử dụng chúng.
Cáp điều khiển
Hệ thống cáp có cấu trúc
Mạng & Dữ liệu, Cáp quang, Dây vá, Mô-đun, Mặt nạ
Ngày 16-18 tháng 4 năm 2024 Trung Đông-Năng lượng tại Dubai
Ngày 16-18 tháng 4 năm 2024 Securika tại Moscow
Ngày 9 tháng 5 năm 2024 SỰ KIỆN RA MẮT SẢN PHẨM & CÔNG NGHỆ MỚI tại Thượng Hải
Ngày 22-25 tháng 10 năm 2024 AN NINH TRUNG QUỐC tại Bắc Kinh
Ngày 19-20 tháng 11 năm 2024 THẾ GIỚI KẾT NỐI KSA
Thời gian đăng: 10-02-2025