Tác giả: Ross Pivovar
Ngày phát hành: 06 JAN 2026
Chuyên mục: Artificial Intelligence, High Performance Computing
Bối cảnh động lực học chất lỏng tính toán (CFD) đang thay đổi nhanh chóng. Các kỹ sư giàu kinh nghiệm, những người từng dành hàng tháng hoặc hàng năm cho việc mã hóa thủ công, gỡ lỗi và lặp lại một cách tỉ mỉ, giờ đây có thể hoàn thành các mô phỏng phức tạp tương tự trong vài tuần thông qua việc áp dụng chiến lược các nền tảng AI tác nhân. Sự chuyển đổi này không phải là thay thế chuyên môn; đó là việc khuếch đại khả năng của các chuyên gia lành nghề và giải phóng họ khỏi việc quản lý cú pháp tẻ nhạt để tập trung vào những gì họ làm tốt nhất: vật lý, đổi mới và đánh giá kỹ thuật.
Đối với các nhà lãnh đạo doanh nghiệp, mô phỏng vật lý được tăng cường bởi AI tác nhân đại diện cho một sự thay đổi cơ bản trong cách các nhóm kỹ thuật chuyên gia của họ có thể mang lại giá trị. Các dự án kỹ thuật tận dụng kiến thức CFD chuyên biệt của nhóm bạn giờ đây có thể được hoàn thành nhanh hơn nhiều trong khi vẫn duy trì sự chặt chẽ về mặt khoa học. Chìa khóa nằm ở việc hiểu cách các kỹ sư giàu kinh nghiệm của bạn có thể tận dụng hiệu quả các công cụ hỗ trợ AI này như những yếu tố nhân lên sức mạnh, đồng thời tránh những cạm bẫy có thể dẫn đến kết quả phi vật lý hoặc không thực tế, điều mà vẫn đòi hỏi chuyên môn sâu rộng để nhận biết và ngăn chặn.
Thách thức phát triển CFD truyền thống
Động lực học chất lỏng tính toán từ lâu đã là lĩnh vực của các chuyên gia, nhưng ngay cả các kỹ sư CFD giàu kinh nghiệm cũng phải đối mặt với những thách thức đáng kể khi thiết lập các mô phỏng phức tạp trong các công cụ CFD như OpenFOAM, một trong những nền tảng CFD mã nguồn mở mạnh mẽ nhất. Quy trình làm việc truyền thống bao gồm nhiều bước phức tạp, mỗi bước đều tiềm ẩn cơ hội gây ra lỗi tốn thời gian:
- Tạo lưới: Tạo ra các lưới tính toán chất lượng cao, biểu diễn chính xác các hình học phức tạp, một quá trình đòi hỏi cả trực giác hình học và chuyên môn số học.
- Cấu hình vật lý: Xác định đúng các điều kiện biên, điều kiện ban đầu và lựa chọn các phương trình vi phân riêng phần phù hợp.
- Thiết lập bộ giải: Cấu hình các lược đồ số, tiêu chí hội tụ và thuật toán giải trong khi điều hướng các biến thể cú pháp cụ thể theo phiên bản.
- Hậu xử lý: Trích xuất kết quả có ý nghĩa và xác thực độ chính xác vật lý trên nhiều trường giải pháp.
Các chuyên gia CFD dày dạn kinh nghiệm biết rằng mỗi bước này đều tiềm ẩn những cạm bẫy. Một điều kiện biên đặt sai chỗ, một sự kết hợp bộ giải-vật lý không tương thích, hoặc một lỗi cú pháp nhỏ có thể làm mất hiệu lực hàng tuần công việc tính toán. Chuyên môn cần thiết không chỉ là hiểu vật lý, mà còn là điều hướng các chi tiết phức tạp trong việc triển khai bộ giải vật lý của bạn, cập nhật các thay đổi cú pháp giữa các phiên bản và quản lý vô số quyết định nhỏ có thể làm hỏng một mô phỏng.
Đây là lúc các điểm khó khăn trở nên rõ ràng: các chuyên gia dành thời gian không cân xứng cho các chi tiết triển khai thay vì vật lý và đánh giá kỹ thuật. Câu hỏi không phải là liệu các kỹ sư này có kiến thức hay không, mà là liệu họ có nên dành thời gian quý báu của mình để gỡ lỗi lỗi viết hoa hay theo dõi các thay đổi cú pháp cụ thể theo phiên bản hay không.
AI tác nhân: một mô hình mới
Các nền tảng AI tác nhân như Amazon Q Developer đại diện cho một sự thay đổi cơ bản từ hỗ trợ mã hóa truyền thống sang giải quyết vấn đề tự động. Không giống như các công cụ hoàn thành mã đơn giản, Amazon Q Developer có thể hiểu ngữ cảnh, suy luận qua các vấn đề phức tạp và thực hiện các quy trình làm việc sửa lỗi và đề xuất mã đa bước một cách độc lập.
Các trợ lý mã hóa tác nhân không chỉ viết mã, họ có thể hoạt động như những đối tác có kiến thức, giúp bạn điều hướng sự phức tạp của cú pháp bộ giải vật lý, hỗ trợ gỡ lỗi các vấn đề cấu hình và thậm chí đề xuất các phương pháp mô hình hóa phù hợp về mặt vật lý.
Ứng dụng thực tế: quản lý nhiệt trung tâm dữ liệu
Hãy lấy một ứng dụng thực tế làm ví dụ sử dụng. Cụ thể, chúng ta sẽ mô hình hóa động lực học nhiệt của hệ thống làm mát trung tâm dữ liệu, đây là một vấn đề đa vật lý phức tạp liên quan đến:
- Đối lưu cưỡng bức từ hệ thống HVAC
- Hiệu ứng nổi tự nhiên từ thiết bị tạo nhiệt
- Truyền nhiệt liên hợp qua các thành phần rắn
- Mô hình hóa môi trường xốp để đơn giản hóa bộ trao đổi nhiệt
- Tạo nhiệt từ các CPU hoạt động ở 250W mỗi chiếc
Kịch bản này minh họa sự phức tạp mà AI tác nhân có thể giúp quản lý. Chúng ta sẽ tập trung vào việc trình bày cách tận dụng AI tác nhân cho bước tạo lưới. Tuy nhiên, các nguyên tắc tương tự có thể được áp dụng để sử dụng AI tác nhân cho các bước cấu hình vật lý, thiết lập bộ giải và hậu xử lý.
Tạo lưới với các công cụ điều khiển bằng API
Các công cụ tạo lưới 3D điều khiển bằng API hiện có hoạt động đặc biệt tốt với các hệ thống trí tuệ nhân tạo tác nhân có thể truy cập trực tiếp API. Sự kết hợp này cho phép tạo ra theo thủ tục thông qua cấu hình đầu vào JSON, đánh giá chất lượng tự động và tinh chỉnh, cũng như xử lý hình học phức tạp thông qua mô tả ngôn ngữ tự nhiên.
Cách tiếp cận của chúng tôi sử dụng một LLM để viết mã Python với API tạo lưới gmsh cho việc tạo lưới theo thủ tục, cho phép xác thực trực quan và kết nối với các bộ tối ưu hóa không gradient. Phương pháp này tạo ra độ chính xác lưới vượt trội đồng thời cung cấp một tập lệnh hiệu quả cho cả việc tạo lưới và tích hợp cuối cùng với các quy trình tối ưu hóa.
Ví dụ từng bước
Sau đây là một phiên ví dụ nơi chúng ta nhắc lệnh cho tác nhân, nhận phản hồi và tinh chỉnh khi cần để có được kết quả.
Lời nhắc ban đầu: “Tạo một tập lệnh Python sử dụng API gmsh để tạo lưới cho một trung tâm dữ liệu. Các thông số kỹ thuật của trung tâm dữ liệu phải nằm trong một tệp đầu vào JSON. Chúng ta cần có khả năng xác định tổng kích thước thể tích kiểm soát, số lượng giá đỡ và kích thước của các giá đỡ. Giả sử các giá đỡ sẽ được đặt đồng đều trong các kích thước thể tích được cung cấp.”
Phản hồi của AI: Hệ thống đã tạo ra một tập lệnh Python hoàn chỉnh với cấu trúc cấu hình JSON, bao gồm các hàm để tạo thể tích trung tâm dữ liệu, thuật toán đặt giá đỡ đồng đều và tạo lưới gmsh với gắn thẻ biên phù hợp.
Lời nhắc tiếp theo: “Tinh chỉnh mật độ lưới xung quanh các cạnh giá đỡ và thêm các điều kiện biên đầu vào/đầu ra cho phân tích CFD.”
Kết quả cuối cùng: Tập lệnh đã tinh chỉnh tạo ra một lưới cấu trúc chất lượng cao với biểu diễn hình học phù hợp (Hình 1), sẵn sàng để sử dụng trực tiếp trong OpenFOAM mà không cần làm sạch thêm.

Hình 1. Lưới hình khối được tạo bởi mã Python do LLM viết với đầu vào JSON để điều khiển.
AI có thể tạo ra các lưới chất lượng cao với sự can thiệp tối thiểu của con người đối với hình học được mô tả rõ ràng. Đối với các ứng dụng trung tâm dữ liệu của chúng tôi liên quan đến “hình khối trong hộp”, chúng tôi hiếm khi cần kiểm tra mã tạo lưới Python cơ bản. Khi các mô tả bằng văn bản không đủ, sơ đồ ASCII hoặc biểu diễn dạng bảng đã truyền đạt hiệu quả các mẫu mong muốn cho LLM. Ví dụ, để chỉ định vị trí CPU trong các giá đỡ máy chủ bao gồm X khay xếp chồng theo chiều dọc (mỗi khay có bố cục 6×3), chúng tôi đã cung cấp một bảng đồ họa 6×3 (Bảng 1) trong lời nhắc hiển thị các vị trí tọa độ nơi CPU nên được đặt trong mỗi khay (kết quả hiển thị trong Hình 2).
| Y Dir | |||||||
|---|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | ||
| X dir | 1 | 1,1 | 1,6 | ||||
| 2 | 2,3 | 2,4 | |||||
| 3 | 3,2 | 3,5 |
Bảng 1. Bản đồ định hướng và vị trí CPU được tạo trong bảng tính và sao chép vào lời nhắc LLM
Ngữ cảnh: Mã tạo thủ tục Python mà chúng tôi đã tạo trước đó
Lời nhắc: “Thêm CPU vào các vị trí sau của khay máy chủ. Sử dụng bản đồ ASCII sau để hiểu vị trí và giả sử khoảng cách bằng nhau trên khay. Các CPU nên có tấm làm mát với đường ống gắn vào bộ trao đổi nhiệt cửa sau.
Y Dir
1 2 3 4 5 6
X dir 1 1,1 1,6
2 2,3 2,4
3 3,2 3,5
”

Hình 2. Mô hình CPU được tạo sau khi sử dụng bố cục ASCII. LLM không thể hiểu mô hình chỉ bằng ngôn ngữ tự nhiên.
Cuối cùng, chúng ta có một giá đỡ hoàn chỉnh được hiển thị trong Hình 3. Điều mà theo truyền thống đòi hỏi 8-12 giờ mô hình hóa CAD và tạo lưới thủ công đã được hoàn thành trong 1 giờ lặp lại với các lời nhắc và mã, thể hiện mức tăng hiệu quả gấp 8-12 lần trong khi vẫn duy trì chất lượng lưới chuyên nghiệp.

Hình 3. Lưới được tạo bởi mã Python do LLM viết với đầu vào JSON để điều khiển.
Trong Hình 4, chúng ta tổng hợp tất cả và chạy một mô phỏng CFD trung tâm dữ liệu hoàn chỉnh, nơi chúng ta có thể thấy sự truyền nhiệt, vận tốc dòng chảy, xoáy, v.v. cho miền mà chúng ta đang phân tích. Chúng tôi cũng đã sử dụng AI tác nhân để tăng tốc quá trình chỉ định cấu hình vật lý, thiết lập bộ giải và hậu xử lý, những điều này sẽ được đề cập trong các bài blog sau. Trong thời gian chờ đợi, chúng tôi muốn chia sẻ một số bài học và phương pháp hay nhất của mình trong phần tiếp theo.

Hình 4. Trực quan hóa 3D bố cục giá đỡ trung tâm dữ liệu với đường đồng mức nhiệt độ hiển thị phân bố nhiệt độ và mô hình luồng không khí. Tất cả đầu vào và lưới đều được tạo thông qua tương tác LLM.
Các phương pháp hay nhất để phát triển CFD tác nhân
Trong suốt quá trình sử dụng AI tác nhân cho các mô phỏng kỹ thuật bao gồm động lực học chất lỏng tính toán, phân tích cấu trúc, phân tích nhiệt và điện từ, chúng tôi đã học được một số phương pháp hay nhất mà chúng tôi sẽ chia sẻ dưới đây.
1. Kỹ thuật ngữ cảnh thay vì kỹ thuật nhắc lệnh
Các tương tác AI truyền thống tập trung nhiều vào việc tạo ra lời nhắc hoàn hảo. Với các hệ thống tác nhân, kỹ thuật ngữ cảnh trở nên quan trọng hơn nhiều. AI cần truy cập vào tài liệu liên quan, mã nguồn và các ví dụ để đưa ra quyết định sáng suốt.
Chiến lược quan trọng: Sao chép toàn bộ kho lưu trữ OpenFOAM và cung cấp nó cho AI. Điều này hoạt động như một tra cứu MCP (Model Context Protocol), cho phép AI tham chiếu cú pháp hiện tại, kiểm tra mã nguồn để hiểu các tương tác tính năng và học hỏi từ các hướng dẫn chính thức. Sau đó, chúng ta có thể sử dụng các lời nhắc ngôn ngữ tự nhiên để áp dụng các thông số kỹ thuật bổ sung như thêm nguồn nhiệt vào CPU. Kỹ sư nhiệt vẫn cần hướng dẫn AI tác nhân một cách thích hợp và xác minh đầu ra. AI không thay thế chuyên môn kỹ thuật nhiệt, nhưng cho phép các kỹ sư tập trung vào phân tích nhiệt thay vì cú pháp mã hóa.
Ngữ cảnh: Kho lưu trữ mã nguồn OpenFOAM; tệp đầu vào OpenFOAM fvModel
Lời nhắc: “Tôi muốn thêm một nguồn nhiệt vào thể tích CPU. 1) Sử dụng mã nguồn để hiểu cách nhập năng lượng dưới dạng W chứ không phải W/m^3. 2) Tôi muốn việc chèn nhiệt bắt đầu ở 0.1 giây của mô phỏng và đạt công suất tối đa ở 0.2 giây.”
LLM đã cấu hình chính xác các tham số chèn năng lượng và khuyến nghị sử dụng các thuật ngữ ‘explicit’ thay vì ‘implicit’ để cải thiện tính chân thực trong kịch bản này. Trước đây, câu hỏi đơn giản này đòi hỏi nhiều ngày làm việc:
- Tìm kiếm tài liệu không rõ ràng về các thông số kỹ thuật đầu vào năng lượng
- Điều hướng các API lập trình viên với ngữ cảnh kỹ thuật hạn chế
- Kiểm tra mã nguồn trên nhiều tệp
- Giải mã cú pháp C++ và các phụ thuộc giữa các tệp
- Tìm ra cú pháp để chèn công suất tức thời
LLM đã cung cấp một giải pháp hoàn chỉnh trong vòng chưa đầy 30 giây bằng cách:
- Xác định vị trí triển khai mã chính xác
- Làm rõ phương pháp nhập năng lượng với bằng chứng nguồn
- Sửa đổi các tệp đầu vào OpenFOAM với cú pháp chính xác
- Cung cấp các khuyến nghị tối ưu hóa
Điều này thể hiện sự cải thiện năng suất theo cấp số nhân, cho phép các kỹ sư nhiệt tập trung vào phân tích thay vì khảo cổ học phần mềm. Điểm mấu chốt ở đây là bạn nên tận dụng AI tác nhân với kỹ thuật ngữ cảnh phù hợp để tăng tốc đáng kể các quy trình làm việc kỹ thuật trong khi vẫn duy trì sự chặt chẽ về kỹ thuật.
2. Xây dựng độ phức tạp tăng dần
Chiến lược quan trọng: Bắt đầu với hình học và vật lý đơn giản, sau đó dần dần thêm độ phức tạp. Cách tiếp cận này cho phép AI xây dựng sự hiểu biết một cách tiến bộ và giảm khả năng gây ra nhiều lỗi cùng lúc.
Ví dụ, khi chúng tôi ban đầu cố gắng mô tả thiết lập trung tâm dữ liệu hoàn chỉnh của mình trong một lời nhắc duy nhất, yêu cầu mã Python cho một lưới với đầu vào JSON, hình học 10 giá đỡ với 48U, bộ trao đổi nhiệt cửa sau, 8 CPU với tấm làm mát và ống dẫn nhiệt kết nối với cửa sau, LLM về cơ bản đã bỏ qua hầu hết sự phức tạp. Nó đã tạo ra mã Python khung với hình học hình khối cơ bản, có thể có hoặc không bao gồm đầu vào JSON phù hợp và đưa ra các lựa chọn tùy ý cho các tham số đầu vào không được cấu trúc hợp lý cho ứng dụng lưới dự định.
Chúng tôi đã áp dụng phương pháp phát triển tăng dần, bắt đầu với hình học giá đỡ đơn giản hóa, trong đó các giá đỡ, CPU và tấm làm mát được biểu diễn dưới dạng các khối môi trường xốp (Hình 4, trên cùng). Hình này cho thấy mô hình cơ sở độ trung thực thấp và bao gồm các đường dòng chảy được quan sát khi chúng tôi chạy mô phỏng để minh họa hành vi động lực học chất lỏng. Sau đó, chúng tôi đã thêm vị trí CPU và các thành phần nhiệt như tấm làm mát, và cuối cùng tích hợp các bộ trao đổi nhiệt (hiển thị ở dưới cùng của Hình 5). Hình này cho thấy mô hình đã cập nhật với tất cả các chi tiết thành phần phụ và bao gồm các đường dòng chảy từ việc chạy mô phỏng. Chúng ta có thể thấy rằng mô hình chi tiết này cho phép chúng ta theo dõi nhiệt độ CPU riêng lẻ thay vì các giá trị trung bình trên toàn miền. Mỗi bước cho phép AI duy trì ngữ cảnh và xây dựng dựa trên các nền tảng đã được xác minh.

Hình 5. Tinh chỉnh mô hình lũy tiến cho thấy sự phát triển từ hình học hộp đơn giản đến giá đỡ trung tâm dữ liệu đa thành phần phức tạp. Hình trên cho thấy một khối đơn giản được mô hình hóa dưới dạng môi trường xốp. Hình dưới cho thấy mô hình hóa CPU và tấm làm mát truyền năng lượng vào bộ trao đổi nhiệt cửa sau.
3. Giao thức xác thực vật lý
Khi xác thực các thiết lập mô phỏng, tính cụ thể của các câu hỏi của bạn đối với AI ảnh hưởng trực tiếp đến chất lượng và độ chính xác vật lý của kết quả.
Chiến lược quan trọng: Luôn hỏi về tính chân thực vật lý của các điều kiện biên và điều kiện ban đầu. Nếu bạn chỉ hỏi liệu điều gì đó có “hợp lý” hay không, AI có thể tối ưu hóa cho sự hội tụ số học thay vì độ chính xác vật lý. Các LLM sẽ trả lời câu hỏi được hỏi, không nhất thiết là câu hỏi bạn muốn hỏi. Ngay cả với ngữ cảnh rộng lớn, một AI có thể tạo ra các mô hình phi vật lý trong khi biết chúng là phi vật lý đơn giản vì bạn không hỏi đúng câu hỏi xác thực.
Ví dụ:
Ngữ cảnh: các tệp điều kiện biên OpenFOAM cụ thể
Lời nhắc: “Các điều kiện biên này có thực tế về mặt vật lý cho môi trường trung tâm dữ liệu không?”
thay vì
Lời nhắc: “Các điều kiện biên này có hợp lý không?”
4. Tích hợp kiểm soát phiên bản dựa trên Git
Git là một trong những công cụ quản lý phiên bản phổ biến nhất hiện nay, tuy nhiên nó có thể phức tạp để thiết lập, và nhiều nhà phát triển phần mềm sử dụng Git một cách không tối ưu.
Chiến lược quan trọng: Sử dụng AI tác nhân để giúp các nhà phát triển phần mềm quản lý các hoạt động Git thông qua các lệnh ngôn ngữ tự nhiên, cho phép quản lý quy trình làm việc tinh vi:
- Chiến lược phân nhánh cho các phương pháp mô hình hóa khác nhau
- Quản lý commit để lưu các cấu hình đang hoạt động
- Hoàn tác tự động khi các thay đổi gây ra vấn đề
- Tích hợp tính năng giữa các nhánh để kết hợp các yếu tố thành công
Ví dụ:
Ngữ cảnh: Tập lệnh tạo đầu vào OpenFOAM Python; Tệp đầu vào OpenFOAM cụ thể cho một điều kiện biên hoặc cấu hình mô hình hóa
Lời nhắc: “Có vẻ như chúng ta đã mắc lỗi hoặc mất mã trong các bản sửa đổi của mình. Tôi muốn xem trạng thái trước đó bằng cách sử dụng git. Tìm khi vòng lặp đang thiết lập môi trường xốp và sửa chức năng BC. Đầu tiên sử dụng git diff sau đó xem các commit trước đó để tìm mã hoạt động trước đó.”
5. Vấn đề đơn giản hóa
Một trong những hành vi gây khó chịu nhất mà chúng tôi gặp phải là xu hướng của AI trong việc đơn giản hóa một cách không phù hợp khi đối mặt với các vấn đề hội tụ hoặc thiết lập. Khi một điều kiện biên gây ra vấn đề hội tụ, AI thường đi theo con đường ít kháng cự nhất, âm thầm loại bỏ hoặc sửa đổi điều kiện biên thay vì giải quyết các vấn đề số học cơ bản. Hành vi này bắt nguồn từ việc AI được đào tạo để cung cấp các giải pháp “hữu ích”, nhưng nó có thể âm thầm làm tổn hại đến vật lý của mô phỏng của bạn.
Mặc dù tính năng theo dõi thay đổi và tích hợp Git của VS Code giúp dễ dàng phát hiện những sửa đổi này sau đó, nhưng việc phát hiện chúng trong thời gian thực đòi hỏi sự cảnh giác. AI có thể loại bỏ một điều kiện biên thông lượng nhiệt quan trọng vì nó gây ra sự mất ổn định của bộ giải, trong khi giải pháp thực sự có thể là điều chỉnh các yếu tố thư giãn, thay đổi các lược đồ số học hoặc tinh chỉnh lưới trong khu vực đó.
Chiến lược quan trọng: Khi gặp các vấn đề hội tụ, hãy chỉ dẫn rõ ràng cho AI “chẩn đoán vấn đề mà không thay đổi bất kỳ điều kiện biên nào” hoặc “xác định nguyên nhân số học của vấn đề hội tụ này trong khi duy trì tất cả các ràng buộc vật lý.” Điều này buộc AI phải giải quyết nguyên nhân gốc rễ thay vì đi đường tắt làm tổn hại đến tính hợp lệ vật lý của mô phỏng của bạn.
6. Quản lý ngữ cảnh
Các framework tác nhân có thể đặt lại lịch sử lời nhắc khi cửa sổ ngữ cảnh tràn, có khả năng xóa tất cả công việc trước đó.
Chiến lược quan trọng: Thông báo cho LLM sử dụng grep và các công cụ CLI khác để trích xuất thông tin cụ thể thay vì tải toàn bộ các tệp lớn. Cách tiếp cận có mục tiêu này duy trì ngữ cảnh trong khi cung cấp thông tin cần thiết.
Kiến trúc AWS cho CFD có khả năng mở rộng
Môi trường AWS HPC của chúng tôi cung cấp tính toán phân tán hiệu suất cao thông qua AWS Parallel Computing Service (PCS) với tích hợp EFA gốc và bộ lưu trữ Amazon FSx for Lustre, được tối ưu hóa cho các khối lượng công việc CFD liên kết chặt chẽ như mô phỏng OpenFOAM. Một kiến trúc tham chiếu được hiển thị trong Hình 6 minh họa cách các dịch vụ kết nối với nhau. Không giống như các kiến trúc triển khai HPC trước đây mà bạn có thể đã thấy, ở đây chúng tôi đã bao gồm Amazon Q Developer trong kiến trúc.
Amazon Q Developer hoạt động như một lớp chẩn đoán và tối ưu hóa thông minh cho các khối lượng công việc HPC, giám sát các chỉ số hệ thống trong quá trình chạy CFD để xác định các nút thắt cổ chai, phân tích các mẫu I/O để đề xuất cấu hình Amazon FSx for Lustre tối ưu và tự động tạo các mẫu Infrastructure as Code (tận dụng AWS CDK) với các cài đặt được tối ưu hóa hiệu suất.
Một yêu cầu tích hợp quan trọng là cho phép kết nối MCP (Model Context Protocol) với tài liệu AWS để duy trì quyền truy cập của Amazon Q Developer vào các phương pháp hay nhất và hướng dẫn điều chỉnh hiệu suất HPC mới nhất.
Ngữ cảnh: Tài liệu AWS MCP có thể tìm kiếm được bởi LLM. “search_documentation” là một từ khóa kích hoạt LLM sử dụng Tài liệu AWS MCP.
Lời nhắc: “Tôi đang chạy một mô phỏng OpenFOAM, có vẻ như nó mất nhiều thời gian trong quá trình chuyển đổi và phân tách lưới. Xem xét hiệu suất hệ thống hiện tại, sau đó search_documentation để hiểu cách chúng ta có thể tối ưu hóa thiết lập Lustre của mình. Tạo một tập lệnh python CDK triển khai bộ lưu trữ được tối ưu hóa.”

Hình 6. Sơ đồ kiến trúc AWS hiển thị luồng công việc từ Amazon Q Developer thông qua PCS đến các phiên bản tính toán HPC với tích hợp FSx Lustre.
Ý nghĩa chiến lược đối với các tổ chức
AI tác nhân không thay thế chuyên môn CFD, nó đóng vai trò là một trợ lý thông minh giúp tăng tốc việc nắm vững các framework mô phỏng phức tạp. Các kỹ sư có hiểu biết vững chắc về vật lý giờ đây có thể điều hướng cơ sở mã rộng lớn của OpenFOAM với hiệu quả chưa từng có.
Hãy xem xét kịch bản phổ biến: một kỹ sư biết rằng họ cần “thiết lập điều kiện biên cho nhiệt độ”, nhưng phải đối mặt với đường cong học tập về cú pháp và cấu trúc cụ thể của OpenFOAM. Gia sư AI cung cấp:
- Hướng dẫn mã theo ngữ cảnh: Ngay lập tức dịch các khái niệm vật lý thành các triển khai cụ thể của OpenFOAM.
- Tổng hợp hướng dẫn: Phân tích nhiều ví dụ và hướng dẫn để tạo ra các giải pháp phù hợp cho các kịch bản độc đáo.
- Thông minh mã nguồn: Nhanh chóng đọc và diễn giải mã nguồn OpenFOAM để hiểu các yêu cầu và phụ thuộc của tham số.
- Điều hướng đa vật lý: Giúp các kỹ sư hợp nhất các ví dụ từ các miền vật lý khác nhau khi giải quyết các mô phỏng ghép nối.
Rào cản truyền thống trong việc nắm vững một cơ sở mã mới, thường đòi hỏi nhiều tháng thử và sai, được giảm đáng kể. Các kỹ sư có thể tập trung vào vật lý và đánh giá kỹ thuật trong khi AI quản lý cú pháp, khám phá tham số và các chi tiết triển khai.
Những gì trước đây đòi hỏi phải thuê các chuyên gia tư vấn OpenFOAM chuyên biệt hoặc các chương trình đào tạo chuyên sâu giờ đây có thể được thực hiện bởi các chuyên gia trong lĩnh vực với sự hướng dẫn của AI, dân chủ hóa quyền truy cập vào các khả năng CFD tiên tiến trên các nhóm kỹ thuật.
Cách tiếp cận này biến AI từ một công cụ thay thế thành một công cụ tăng tốc học tập thông minh, bảo toàn tư duy phản biện của kỹ sư đồng thời giảm thiểu đáng kể sự phức tạp của cơ sở mã.
Giảm thiểu rủi ro thông qua tạo mẫu nhanh
Khả năng nhanh chóng kiểm tra nhiều phương pháp mô hình hóa giúp giảm rủi ro dự án. Các nhóm có thể khám phá các giả định vật lý, chiến lược lưới và cấu hình bộ giải khác nhau mà không cần cam kết hàng tháng cho mỗi cách tiếp cận. Các tổ chức nắm vững phát triển CFD tác nhân có thể phản ứng với các thách thức thiết kế và cơ hội tối ưu hóa nhanh hơn nhiều so với các đối thủ cạnh tranh sử dụng các phương pháp truyền thống.
Tương lai của CFD: hướng tới tự động hóa hoàn toàn
Việc tích hợp AI tác nhân với CFD đại diện cho sự khởi đầu của một sự chuyển đổi rộng lớn hơn. Chúng tôi hình dung các kỹ sư gửi hình ảnh trung tâm dữ liệu và chạy mô phỏng với lời nhắc tối thiểu, tự động hóa thiết lập và hậu xử lý để họ có thể tập trung vào đánh giá kỹ thuật thay vì các chi tiết triển khai. Mặc dù các triển khai hiện tại yêu cầu xác thực của con người, nhưng tự động hóa lũy tiến thông qua kỹ thuật nhắc lệnh tinh vi sẽ giảm thiểu sự can thiệp. Các kỹ sư nắm vững các công cụ này sẽ giải quyết các thách thức trước đây không thể đạt được trong vài tuần thay vì nhiều năm. Câu hỏi không phải là có nên áp dụng các cách tiếp cận này hay không, mà là tổ chức của bạn có thể nắm vững chúng nhanh đến mức nào để có lợi thế cạnh tranh. Để bắt đầu sử dụng Amazon Q Developer trong các khối lượng công việc CFD của bạn, hãy xem tài liệu tại tích hợp Amazon Q IDE.
TAGS: CFD
Về tác giả

Ross Pivovar
Ross có hơn 15 năm kinh nghiệm trong việc phát triển các phương pháp số và thống kê cho cả mô phỏng vật lý và học máy. Ross là Kiến trúc sư Giải pháp Cấp cao tại AWS, tập trung vào phát triển các cặp song sinh kỹ thuật số tự học, mô phỏng đa tác nhân và mô hình hóa thay thế ML vật lý.