Hé lộ mức phí khổng lồ để ChatGPT trả lời trơn tru câu hỏi của người dùng

Mức phí đáng kể này cũng là lý do mới đây OpenAI đã ra mắt dịch vụ ChatGPT Pro dành cho người dùng trả phí hàng tháng.

Khả năng trả lời lưu loát như người thật của ChatGPT đang làm người dùng toàn cầu thích thú trò chuyện với chatbot AI này mỗi ngày. Thế nhưng có một thực tế ít người biết đằng sau mỗi câu trả lời của ChatGPT là một khoản phí không nhỏ mà OpenAI – công ty khai sinh ra chatbot này – đang phải gồng gánh mỗi ngày.

Không giống như các dịch vụ web thông thường, vận hành một chatbot AI với khả năng đa tài như ChatGPT tốn kém hơn nhiều, chủ yếu đến từ các khoản phí khổng lồ dành cho hạ tầng điện toán đám mây.

Theo các nhà phân tích, hiện tại ChatGPT đang chạy trên nền tảng đám mây Azure của Microsoft, điều này giúp OpenAI không phải lo về việc thiết lập phòng máy chủ vật lý cũng như vận hành nó. Nhưng đổi lại, họ sẽ phải trả phí cho Microsoft khi vận hành ChatGPT trên nền tảng đám mây này.

Hé lộ mức phí khổng lồ để ChatGPT trả lời trơn tru câu hỏi của người dùng - Ảnh 1.

Ảnh Internet

Chi phí cho mỗi câu trả lời của ChatGPT

Dưới đây là phân tích của Tom Goldstein, giáo sư về AI, bảo mật và quyền riêng tư tại Đại học Maryland. Với chuyên môn và hiểu biết của mình, ông Goldstein đã thử ước tính chi phí mà OpenAI phải trả cho Microsoft đối với mỗi câu trả lời của ChatGPT cho người dùng.

Trước hết phải kể đến mô hình xử lý ngôn ngữ tự nhiên GPT-3 do OpenAI để làm nền tảng cho ChatGPT. Với 175 tỷ tham số, GPT-3 là mô hình xử lý ngôn ngữ tự nhiên lớn thứ hai thế giới hiện nay – sau mô hình Swift Transformer của Google. Đây là một con số khổng lồ đối với các mô hình AI hiện tại.

Hé lộ mức phí khổng lồ để ChatGPT trả lời trơn tru câu hỏi của người dùng - Ảnh 2.

Ảnh Twitter.

Vậy tốc độ xử lý của nó như thế nào? Theo ông Goldstein, một mô hình với 3 tỷ tham số chạy trên một GPU Nvidia A100 80GB có thể sản sinh ra một token trong vòng 6ms (mili giây). Với quy mô 175 tỷ tham số như của ChatGPT, một GPU A100 sẽ mất 350 ms để tạo ra được một từ duy nhất.

Tất nhiên, một GPU duy nhất là không đủ để vận hành toàn bộ ChatGPT. Riêng việc tải toàn bộ mô hình và xử lý văn bản trong nó đã cần 5 GPU A100. Hiện tại ChatGPT có thể tạo ra khoảng 15-20 từ mỗi giây. Do vậy, nếu sử dụng các GPU Nvidia A100, toàn bộ mô hình có thể phải chạy trên máy chủ ảo với 8 GPU này (đây cũng là một lựa chọn thường thấy trên Azure).

Với mức phí hiện tại của Microsoft, mỗi GPU A100 sẽ tốn khoảng 3 USD mỗi giờ sử dụng. Điều này có nghĩa là 0,0003 USD cho mỗi từ được tạo ra. Trong khi đó, mỗi câu trả lời của ChatGPT thường chứa khoảng 30 từ - nghĩa là trung bình khoảng 1 cent cho mỗi câu trả lời. Con số có vẻ rất nhỏ so với tưởng tượng của mỗi người.

Hé lộ mức phí khổng lồ để ChatGPT trả lời trơn tru câu hỏi của người dùng - Ảnh 3.

GPU Nvidia A100 80GB, GPU chuyên dụng cho xử lý tác vụ AI của Nvidia, có giá hàng chục nghìn USD mỗi chiếc. Ảnh internet

Nhưng vấn đề với ChatGPT là lượng người dùng mỗi ngày của họ đã gia tăng chóng mặt kể từ khi ra mắt đến nay. Tính đến hiện tại – 40 ngày sau khi ra mắt – lượng người dùng hàng ngày của ChatGPT đã vượt mốc 10 triệu – một cột mốc mà Instagram từng phải mất gần một năm mới làm được.

Giả sử trung bình mỗi người dùng hỏi 5 câu mỗi ngày, nghĩa là ChatGPT sẽ phải xử lý khoảng 50 triệu câu hỏi trong một ngày. Con số này tương đương với mức phí 500.000 USD mỗi ngày hay 15 triệu USD mỗi tháng. Tuy nhiên, con số này có thể chưa dừng ở đây khi vẫn còn nhiều người đang háo hức dùng thử ChatGPT trên toàn thế giới và sẽ khiến mức phí này tiếp tục lên cao hơn nữa.

Cho dù mối quan hệ đối tác với Microsoft có thể giúp OpenAI được hưởng mức phí thấp hơn, nhưng chắc chắn con số cũng không hề nhỏ. Dù không cho biết con số cụ thể nhưng trong một cuộc phỏng vấn đầu tháng 12 vừa qua, chính CEO OpenAI, ông Sam Altman cũng nói rằng: "Chúng tôi phải nghĩ cách kiếm tiền từ nó vào một lúc nào đó, chi phí điện toán đang cao đến mức đáng kinh ngạc."

Không những thế đối với một tổ chức đang chìm trong thua lỗ như OpenAI, số tiền này lại càng đáng kể hơn.

Cơn sốt ChatGPT mang lại cứu cánh cho OpenAI

Theo báo cáo từ trang Fortune, dù không còn là một tổ chức phi lợi nhuận nhưng doanh thu của OpenAI khá khiêm tốn. Cho dù đã mang về gần 30 triệu USD doanh thu, nhưng họ tiêu tốn đến 416,45 triệu USD chi phí cho hoạt động tính toán và xử lý dữ liệu, gần 89,31 triệu USD khác cho lương nhân viên và khoảng 38,75 triệu USD cho các chi phí hoạt động khác. Tổng cộng riêng trong năm 2022, OpenAI đã lỗ đến 544,5 triệu USD.

Hé lộ mức phí khổng lồ để ChatGPT trả lời trơn tru câu hỏi của người dùng - Ảnh 4.

Ảnh Internet

Mức thua lỗ này sẽ càng lớn hơn nữa nếu tính đến chi phí ngày càng gia tăng cho ChatGPT. Tuy nhiên, cơn sốt mà ChatGPT đang tạo ra trên toàn cầu đã mang lại cho OpenAI một cứu cánh đúng lúc họ cần nhất: khoản đầu tư 10 tỷ USD đến từ Microsoft cũng như các tổ chức khác. Bên cạnh đó, OpenAI đang kỳ vọng danh tiếng của ChatGPT sẽ lôi kéo thêm khách hàng cho các sản phẩm khác, với dự báo doanh thu 200 triệu USD vào năm 2023 và 1 tỷ USD vào năm 2024.

Mức chi phí khổng lồ dành cho dịch vụ ChatGPT cũng như sức ép gia tăng doanh thu của OpenAI cũng lý giải cho quyết định mới đây của tổ chức này khi giới thiệu dịch vụ ChatGPT Pro với mức phí thuê bao hàng tháng là 42 USD. Với phiên bản trả phí, khách hàng có thể được ưu tiên sử dụng dịch vụ khi nhu cầu lên cao, tốc độ phản hồi của chatbot nhanh hơn cũng như ưu tiên tiếp cận các tính năng mới.

Link nội dung: https://doanhnhandautu.net/he-lo-muc-phi-khong-lo-de-chatgpt-tra-loi-tron-tru-cau-hoi-cua-nguoi-dung-a3771.html