Tác giả: Tausif Raza Naviwala and Mohamed Najaaf
Ngày phát hành: 08 JAN 2026
Chuyên mục: Amazon Bedrock, Amazon Bedrock Guardrails, Amazon Bedrock Knowledge Bases, Amazon CloudFront, Amazon Cognito, Amazon DynamoDB, Amazon EC2, Amazon OpenSearch Service, Amazon Simple Storage Service (S3), Financial Services, Industries
Giới thiệu
Trong quá trình làm việc với các nhà cung cấp bảo hiểm, chúng tôi đã nhận thấy một thách thức nhất quán: làm cho thông tin chính sách phức tạp trở nên dễ tiếp cận và dễ hiểu đối với khách hàng trên các kênh ưa thích của họ. Khi khách hàng tìm kiếm chi tiết về bảo hiểm, họ thường gặp phải các tài liệu chính sách dày đặc, tương tác chatbot chung chung hoặc thời gian chờ đợi cuộc gọi kéo dài. Những điểm gây khó khăn này tạo ra sự thất vọng cho khách hàng, làm tăng chi phí vận hành và đại diện cho những cơ hội bị bỏ lỡ để xây dựng lòng tin thông qua dịch vụ rõ ràng, cá nhân hóa.
Bài đăng trên blog này và các tài liệu đi kèm sẽ chỉ cho bạn cách xây dựng một trợ lý AI sử dụng AI tạo sinh để thay đổi cách khách hàng tương tác với các chính sách bảo hiểm của họ. Chúng tôi cung cấp sơ đồ kiến trúc, video về việc triển khai và liên kết đến kho lưu trữ GitHub của AWS Samples để bạn có thể triển khai giải pháp này trong môi trường của riêng mình. Giải pháp này cho phép khách hàng truy cập thông tin chính sách chính xác, hiểu chi tiết về bảo hiểm và nhận hỗ trợ 24/7, không cần xếp hàng điện thoại dài hoặc tìm kiếm mệt mỏi qua các tài liệu chính sách.
Cơ hội cho khách hàng
Các công ty bảo hiểm có thể hiện đại hóa trải nghiệm thông tin chính sách thông qua hỗ trợ được hỗ trợ bởi AI tạo sinh để:
- Chuyển đổi các tài liệu chính sách phức tạp thành hướng dẫn rõ ràng, đàm thoại mà khách hàng có thể hiểu.
- Cung cấp các phản hồi cá nhân hóa phù hợp với phạm vi bảo hiểm và điều khoản cụ thể của từng khách hàng.
- Cung cấp hỗ trợ tức thì, chính xác 24/7 đồng thời giảm chi phí vận hành.
- Tăng cường tuân thủ bằng cách đảm bảo các phản hồi nhất quán, có tài liệu với các trích dẫn nguồn.
- Giảm khối lượng cuộc gọi đến trung tâm liên hệ bằng cách trao quyền cho khách hàng tự phục vụ.
Các tổ chức áp dụng AI tạo sinh có thể biến việc hiểu chính sách — vốn là một điểm khó khăn của khách hàng — thành một lợi thế cạnh tranh giúp thúc đẩy sự hài lòng và giữ chân khách hàng.
Tổng quan giải pháp
Chúng tôi sẽ chỉ cho bạn một mẫu triển khai cho trợ lý AI chính sách bảo hiểm xử lý các tài liệu chính sách phi cấu trúc và các truy vấn của khách hàng để tạo ra trải nghiệm đàm thoại, cá nhân hóa. Giải pháp này kết hợp khả năng tạo sinh tăng cường truy xuất (RAG) của Amazon Bedrock thông qua Amazon Bedrock Knowledge Bases với dữ liệu chính sách cụ thể của khách hàng để cung cấp các phản hồi chính xác, phù hợp.
Để tạo phản hồi, Amazon Bedrock cung cấp quyền truy cập vào nhiều Foundation Model. Việc triển khai này sử dụng Anthropic Claude 4.5 Haiku, cung cấp sự cân bằng tối ưu giữa tốc độ, chi phí và chất lượng cho các giao diện đàm thoại. Thời gian phản hồi nhanh của nó giúp các cuộc hội thoại diễn ra trôi chảy đồng thời duy trì sự tinh vi cần thiết để diễn giải thuật ngữ bảo hiểm phức tạp và tạo ra hướng dẫn chính xác, cá nhân hóa. Amazon Bedrock Guardrails giúp duy trì chất lượng phản hồi bằng cách lọc nội dung không phù hợp và xác minh tính xác thực. Thiết kế tách biệt các tài liệu chính sách chung khỏi các tài liệu cụ thể của khách hàng trong Amazon Simple Storage Service (S3), cho phép trả lời tùy chỉnh trong khi vẫn duy trì sự cô lập dữ liệu. Một ứng dụng Streamlit chạy trên Amazon Elastic Compute Cloud (EC2) đằng sau Application Load Balancer cung cấp giao diện người dùng, với Amazon Cognito xử lý xác thực. Amazon CloudFront và AWS WAF mang lại hiệu suất tối ưu và bảo vệ khỏi các mối đe dọa bên ngoài.
Mẫu triển khai và kho lưu trữ mã cung cấp cho các công ty bảo hiểm một điểm khởi đầu đã được chứng minh để xây dựng, thử nghiệm và triển khai các giải pháp sẵn sàng sản xuất mang lại giá trị kinh doanh có thể đo lường được.
Kiến trúc
Sơ đồ sau minh họa kiến trúc của giải pháp. Để minh họa, việc triển khai này sử dụng Streamlit chạy trên Amazon EC2 để cung cấp giao diện người dùng thể hiện khả năng của trợ lý AI. Mặc dù cách tiếp cận này thể hiện hiệu quả chức năng của giải pháp, nhưng môi trường sản xuất phải đánh giá các tùy chọn frontend phù hợp với các tiêu chuẩn bảo mật, khả năng mở rộng và kiến trúc của tổ chức.

Hình 1: Kiến trúc giải pháp
Quy trình làm việc của giải pháp
Phần sau giải thích các phần khác nhau của kiến trúc, mỗi điểm tham chiếu đến số được gắn nhãn trên sơ đồ kiến trúc.
- Nền tảng Knowledge Base: Amazon Bedrock Knowledge Base nhập các tài liệu chính sách bảo hiểm chung, không dành riêng cho khách hàng từ Amazon S3, tạo các embedding bằng Amazon Titan Text Embeddings V2. Chúng tôi đã chọn mô hình embedding này vì sự cân bằng tối ưu giữa độ chính xác, hiệu quả chi phí và tích hợp AWS gốc — các yếu tố quan trọng khi xử lý khối lượng lớn tài liệu bảo hiểm. Các embedding được lưu trữ trong Amazon OpenSearch Serverless để tìm kiếm độ tương đồng vector có khả năng mở rộng và hiệu suất cao.
- Kiến trúc ứng dụng an toàn và linh hoạt: Người dùng truy cập ứng dụng Streamlit thông qua Amazon CloudFront, được bảo vệ bởi AWS WAF chống lại các cuộc tấn công web phổ biến. Amazon Cognito xử lý xác thực, trong khi Application Load Balancer phân phối lưu lượng truy cập đến phiên bản Amazon EC2 lưu trữ ứng dụng.
- Lịch sử phiên: Amazon DynamoDB ghi lại ID phiên và các tương tác trò chuyện. Mặc dù không được triển khai trong giải pháp này, các tổ chức có thể phân tích dữ liệu này để xác định các câu hỏi thường gặp, nhận dạng các mẫu tương tác của khách hàng và thúc đẩy cải tiến dịch vụ liên tục.
- Quản lý tài liệu khách hàng: Các tài liệu chính sách bảo hiểm của khách hàng, được lưu trữ an toàn trong Amazon S3, có quy ước đặt tên khớp với tên người dùng đã xác thực. Khi khách hàng đăng nhập qua Amazon Cognito, ứng dụng Streamlit sử dụng tên người dùng của họ để truy xuất tài liệu chính sách tương ứng từ S3 (ví dụ: người dùng “john_doe” ánh xạ tới “john_doe.txt”). Điều này đảm bảo mỗi khách hàng chỉ truy cập thông tin chính sách của riêng họ và nhận được các phản hồi cá nhân hóa dựa trên chi tiết bảo hiểm cụ thể của họ. Việc ánh xạ trực tiếp tên người dùng với tên tệp này đơn giản hóa việc trình diễn và giúp người đọc hiểu khái niệm cá nhân hóa. Đối với các triển khai sản xuất, hãy cân nhắc sử dụng các cơ chế ánh xạ mạnh mẽ hơn như mã định danh khách hàng duy nhất được lưu trữ trong cơ sở dữ liệu hoặc dịch vụ siêu dữ liệu.
- Xử lý truy vấn thông minh: Khi người dùng đặt câu hỏi, ứng dụng sử dụng API Retrieve của Amazon Bedrock Knowledge Base để thực hiện tìm kiếm ngữ nghĩa đối với các tài liệu chính sách bảo hiểm chung (đã được xử lý trước và lưu trữ dưới dạng embedding trong quá trình thiết lập ban đầu). Các tài liệu này chứa các điều khoản, điều kiện và thông tin bảo hiểm áp dụng cho tất cả khách hàng. Hệ thống xác định và truy xuất các đoạn văn bản liên quan nhất dựa trên truy vấn của người dùng.
- Tạo phản hồi cá nhân hóa: Amazon Bedrock kết hợp các đoạn Knowledge Base đã truy xuất với tài liệu chính sách cụ thể của khách hàng (được truy xuất từ S3 dựa trên tên người dùng đã xác thực của họ). Claude 4.5 Haiku xử lý thông tin kết hợp này để tạo ra các phản hồi chính xác về ngữ cảnh và cá nhân hóa.
- Guardrails cho AI có trách nhiệm: Amazon Bedrock Guardrails giúp triển khai các nguyên tắc AI có trách nhiệm bao gồm an toàn, khả năng giải thích và công bằng. Dịch vụ áp dụng nhiều lớp bảo vệ: chặn các nỗ lực tấn công prompt injection, lọc nội dung có hại, xác minh tính xác thực dựa trên tài liệu nguồn và thực thi ngưỡng liên quan. Các kiểm soát này hoạt động cùng nhau để thúc đẩy đối xử công bằng với tất cả người dùng đồng thời duy trì các phản hồi có thể giải thích, đáng tin cậy.
Amazon Bedrock Guardrails trong việc triển khai này sử dụng chế độ không đồng bộ để mang lại trải nghiệm người dùng tối ưu. Ở chế độ không đồng bộ, các đoạn phản hồi được truyền đến người dùng ngay lập tức khi chúng có sẵn, trong khi các chính sách guardrails được áp dụng trong nền. Điều này làm giảm độ trễ và duy trì luồng hội thoại tự nhiên, điều cần thiết cho sự hài lòng của khách hàng. Mặc dù chế độ không đồng bộ có thể cho phép các đoạn ban đầu đi qua trước khi quá trình quét hoàn tất, cách tiếp cận này hoạt động tốt cho hỗ trợ chính sách bảo hiểm, nơi tính chất được kiểm soát của thông tin chính sách và dữ liệu cụ thể của khách hàng làm giảm nguy cơ hiển thị nội dung không phù hợp.
Đối với các trường hợp sử dụng yêu cầu xác thực nội dung hoàn chỉnh trước khi phân phối hoặc che giấu thông tin nhạy cảm, hãy cân nhắc sử dụng chế độ đồng bộ, chế độ này quét tất cả các đoạn trước khi gửi chúng cho người dùng. Để tìm hiểu thêm về cách chọn giữa các chế độ xử lý, hãy xem tài liệu Amazon Bedrock Guardrails.
Hướng dẫn giải pháp
Giải pháp này cung cấp một cách trực quan để khách hàng bảo hiểm hiểu các chính sách của họ thông qua các cuộc trò chuyện bằng ngôn ngữ tự nhiên. Để minh họa các khả năng cốt lõi, việc triển khai này thể hiện quy trình làm việc thiết yếu từ xác thực người dùng đến tạo phản hồi cá nhân hóa.
Trong ảnh GIF động sau, bạn có thể thấy khả năng cá nhân hóa của giải pháp đang hoạt động. Chúng tôi trình diễn việc đăng nhập với tư cách hai người dùng khác nhau — mỗi người có các chính sách bảo hiểm xe máy độc đáo — và đặt cùng một câu hỏi để thể hiện cách các phản hồi được điều chỉnh theo chi tiết bảo hiểm cá nhân. Sự cá nhân hóa này biến một chatbot chung chung thành một công cụ dịch vụ khách hàng có giá trị.

Hình 2: Ảnh GIF động của trợ lý AI chính sách bảo hiểm
Điều làm cho giải pháp này đặc biệt có giá trị là khả năng chuyển đổi thuật ngữ bảo hiểm phức tạp thành ngôn ngữ rõ ràng, dễ hiểu trong khi vẫn duy trì độ chính xác thông qua sự kết hợp giữa RAG và các Foundation Model tiên tiến. Khi truy xuất thông tin chính sách, hệ thống kéo các phần liên quan từ Knowledge Base, sau đó sử dụng khả năng ngôn ngữ tự nhiên của Anthropic Claude để diễn giải lại văn bản pháp lý dày đặc thành các phản hồi đàm thoại trong khi vẫn giữ nguyên ý nghĩa gốc và trích dẫn các tài liệu nguồn. Ví dụ, khách hàng đặt các câu hỏi như, “Tôi có được bảo hiểm cho thiệt hại kính chắn gió không?” hoặc “Mức khấu trừ của tôi cho các yêu cầu bồi thường va chạm là bao nhiêu?” và nhận được các câu trả lời cá nhân hóa dựa trên các điều khoản chính sách bảo hiểm xe máy cụ thể của họ, hoàn chỉnh với các trích dẫn liên quan từ các tài liệu nguồn.
Kho lưu trữ GitHub của AWS Samples
Chúng tôi đã cung cấp giải pháp mã nguồn mở này trên GitHub. Điều này cho phép các nhà phát triển và tổ chức sử dụng, tùy chỉnh và mở rộng giải pháp để đáp ứng các yêu cầu kinh doanh cụ thể của họ. Kho lưu trữ này cung cấp một triển khai proof-of-concept của kiến trúc đã thảo luận.
Để triển khai giải pháp, hãy làm theo hướng dẫn triển khai được cung cấp trong kho lưu trữ GitHub. Quá trình triển khai bắt đầu bằng việc xác minh các điều kiện tiên quyết, bao gồm đảm bảo quyền truy cập vào mô hình Claude 4.5 Haiku trong Amazon Bedrock trong AWS Region mục tiêu của bạn. Kho lưu trữ bao gồm các hướng dẫn triển khai AWS Cloud Development Kit (CDK) chi tiết hướng dẫn bạn qua quy trình thiết lập cơ sở hạ tầng.
Cách tiếp cận Infrastructure as Code (IaC) này đảm bảo tính nhất quán, khả năng lặp lại và giảm khả năng xảy ra lỗi cấu hình trong quá trình thiết lập. CDK stack cung cấp tất cả các dịch vụ AWS cần thiết. Mặc dù việc triển khai của chúng tôi tập trung vào hỗ trợ chính sách bảo hiểm, chúng tôi đã thiết kế kiến trúc để có khả năng mở rộng. Các tổ chức có thể tùy chỉnh giải pháp bằng cách:
- Kết hợp các hướng dẫn vận hành dịch vụ khách hàng vào prompt hệ thống và Guardrails để điều chỉnh các phản hồi theo tiêu chuẩn của công ty.
- Tích hợp giải pháp vào các cổng thông tin khách hàng hiện có.
- Chọn các Foundation Model khác nhau trong Amazon Bedrock để tối ưu hóa chi phí, độ trễ, độ chính xác hoặc khả năng ngôn ngữ cụ thể dựa trên các ưu tiên kinh doanh.
- Mở rộng luồng xác thực để tích hợp với các nhà cung cấp danh tính hiện có.
Kho lưu trữ bao gồm các tài liệu chính sách mẫu, tập lệnh triển khai và hướng dẫn kiến trúc để giúp các nhóm triển khai và tùy chỉnh giải pháp thành công.
Trước khi triển khai vào sản xuất, hãy xem xét các yêu cầu cụ thể của bạn, chẳng hạn như:
- Triển khai các chính sách quản trị dữ liệu và lưu giữ dữ liệu phù hợp cho lịch sử trò chuyện.
- Các cân nhắc về khả năng mở rộng để xử lý các phiên người dùng đồng thời.
- Kích hoạt trải nghiệm đa kênh và giám sát trò chuyện để hỗ trợ nhất quán trên tất cả các điểm tiếp xúc của khách hàng.
- Tùy chỉnh Amazon Bedrock Guardrails dựa trên các yêu cầu tuân thủ của bạn.
Bằng cách phát hành giải pháp này dưới dạng mã nguồn mở, chúng tôi hy vọng sẽ đẩy nhanh ngành bảo hiểm trong hành trình chuyển đổi kỹ thuật số của họ. Các tổ chức có thể xây dựng dựa trên nền tảng này để tạo ra các giải pháp dịch vụ khách hàng được hỗ trợ bởi AI tinh vi giúp cải thiện sự hài lòng của người giữ chính sách đồng thời giảm chi phí vận hành thông qua hỗ trợ tự động có sẵn 24/7.
Kết luận
Trong bài đăng này, chúng tôi đã chỉ ra cách các khả năng của Amazon Bedrock có thể thay đổi dịch vụ khách hàng bảo hiểm bằng cách cung cấp hướng dẫn chính sách cá nhân hóa. Việc triển khai thể hiện một mẫu có thể mở rộng bằng cách sử dụng Amazon Bedrock kết hợp với các dịch vụ AWS hỗ trợ.
Thông qua việc triển khai này, chúng tôi đã học được rằng các dịch vụ AWS và Foundation Model có thể tạo ra các trợ lý bảo hiểm hiệu quả bằng cách cung cấp nền tảng vững chắc về thông tin thực tế, triển khai các biện pháp bảo mật và cho phép xử lý cẩn thận dữ liệu cá nhân. Khả năng cá nhân hóa này biến thông tin chung chung thành hướng dẫn có thể hành động, phù hợp cho từng khách hàng, tạo sự khác biệt cho giải pháp so với các hệ thống FAQ thông thường.
Giải pháp này thể hiện các phản hồi cá nhân hóa tự động cho khách hàng bảo hiểm, cho phép họ tương tác với thông tin chính sách thông qua cuộc trò chuyện tự nhiên. Được xây dựng trên Amazon Bedrock, Amazon EC2, Amazon S3, Amazon DynamoDB và Amazon Cognito, nó cung cấp các phản hồi cá nhân hóa dựa trên phạm vi bảo hiểm cá nhân, giải thích các điều khoản phức tạp một cách rõ ràng và hoạt động 24/7. Amazon Bedrock Guardrails giúp khách hàng đảm bảo các phản hồi đáp ứng các tiêu chuẩn tuân thủ dịch vụ tài chính đồng thời ngăn chặn các cuộc tấn công prompt injection.
Nó cũng cho thấy cách AI tạo sinh có thể giảm chi phí vận hành cho các nhà cung cấp bảo hiểm đồng thời cải thiện sự hài lòng của khách hàng.
Hãy bắt đầu bằng cách khám phá kho lưu trữ GitHub và triển khai giải pháp trong môi trường AWS của bạn. Để tìm hiểu thêm về xây dựng các ứng dụng AI tạo sinh, hãy truy cập tài liệu Amazon Bedrock và khám phá tài nguyên AI tạo sinh của chúng tôi.
Tài nguyên bổ sung
- Xây dựng các ứng dụng AI có trách nhiệm với Amazon Bedrock Guardrails
- Xây dựng khả năng giải thích có thể xác minh vào quy trình làm việc dịch vụ tài chính với kiểm tra lý luận tự động cho Amazon Bedrock Guardrails
- Xử lý yêu cầu bảo hiểm tự động bằng Amazon Bedrock, Knowledge Base và Agents
- Yêu cầu không chạm – Cách các công ty bảo hiểm P&C có thể tối ưu hóa quy trình xử lý yêu cầu bằng các dịch vụ AWS AI/ML
Về tác giả

Tausif Raza Naviwala
Tausif Raza Naviwala là Kiến trúc sư Giải pháp tại AWS có trụ sở tại Dubai, giúp các Doanh nghiệp trên khắp UAE đẩy nhanh hành trình lên đám mây của họ. Kể từ khi gia nhập AWS vào năm 2022, anh đã hỗ trợ nhiều khách hàng đa dạng—từ các tài khoản Enterprise Greenfield đến các khách hàng Bảo hiểm lớn trong lĩnh vực FSI ở Vương quốc Anh, và hiện là các Doanh nghiệp lớn ở khu vực MENAT. Với tư cách là Đại sứ GenAI cho EMEA và là thành viên của AI/ML TFC trong lộ trình GenAI Core, Tausif giúp khách hàng khai thác tiềm năng của AI tạo sinh. Khi không thiết kế các giải pháp đám mây, bạn sẽ thấy anh ấy lái xe offroad qua các cồn cát ở Dubai hoặc cập nhật những tin tức mới nhất từ thế giới Formula 1.

Mohamed Najaaf
Mohamed Najaaf là Kiến trúc sư Giải pháp tại AWS, hỗ trợ khách hàng trong Ngành Dịch vụ Tài chính – Bảo hiểm. Anh ấy thích xây dựng và chia sẻ các giải pháp Generative AI, với sự quan tâm mạnh mẽ đến việc đơn giản hóa các ý tưởng phức tạp để sử dụng trong thế giới thực. Ngoài công việc, anh ấy thích khám phá những địa điểm mới và xem phim.