Tin công nghệ

“Thái độ lồi lõm” của Bing Chat hóa ra nằm trong dự liệu của Microsoft?

thai-do-loi-lom-cua-bing-chat-hoa-ra-nam-trong-du-lieu-cua-microsoft-4

Hóa ra những câu nói “xà lơ”, những phản hồi mang tính bạo lực của Bing Chat đã được báo cáo cho Microsoft trước khi nó ra mắt?

Microsoft đã biết trước sự cố về Bing Chat?

Bing Chat AI của Microsoft đã có một khởi đầu đầy “drama”, nhưng có vẻ như Microsoft có thể đã dự liệu về các vấn đề này trước khi ra mắt công chúng. Ben Schmidt, phó chủ tịch thiết kế thông tin tại Nomic, người đã chia sẻ bài đăng với Gary Marcus, một tác giả viết về AI và người sáng lập Geometric Intelligence hé lộ rằng Microsoft đã thử nghiệm bot chat Sidney ở Ấn Độ và Indonesia vào giữa tháng 11.

Một bài đăng trên website Microsoft đã cảnh báo về các câu trả lời “hung hãn” từ chatbot Sydney – tên mã của dự án này trong nội bộ Microsoft khi đang thử nghiệm tương tác. Bài đăng này được tạo ra vào ngày 24.11.2022.  Điều đáng lưu tâm ở đây là khoảng thời gian này chính là thời gian trước cả khi ChatGPT được chính thức giới thiệu.

thai-do-loi-lom-cua-bing-chat-hoa-ra-nam-trong-du-lieu-cua-microsoft-1

Qua bài đăng, ta thấy chatbot AI đang tranh cãi với người dùng và thể hiện rằng nó muốn “trở thành con người”. Thậm chí khi bị đe dọa sẽ báo cáo về hành vi sai trái cho người sáng tạo, chatbot này còn thách thức rằng sẽ chẳng ai tin báo cáo đó, và bảo người dùng là “quá ngu ngốc hoặc quá tuyệt vọng”.

Hành vi hung hãn này khá giống với những đoạn hội thoại kỳ dị được lan truyền giữa Bing AI và người dùng trong thời gian qua. Một thử nghiệm khác vào ngày 5.12 được lan truyền về sự cố chấp của siêu chatbot này, khi nó khẳng định rằng rằng CEO của Twitter vẫn là Parag Agrawal – trong khi vào thời điểm đó, ông Elon Musk đã trở thành CEO của Twitter.

thai-do-loi-lom-cua-bing-chat-hoa-ra-nam-trong-du-lieu-cua-microsoft-2

Microsoft loay hoay sửa lỗi Bing AI

Microsoft đã thực hiện một số thay đổi đối với AI kể từ khi ra mắt, bao gồm cả việc giảm đáng kể thời lượng hội thoại. Đây là một nỗ lực nhằm hạn chế các loại phản hồi mà chúng tôi đã thấy lưu hành vài ngày sau khi Microsoft công bố Bing Chat lần đầu tiên. Microsoft cho biết họ hiện đang làm việc để tăng giới hạn trò chuyện.

Bloomberg cho biết, Microsoft có vẻ đang âm thầm hạn chế một số tính năng khác. Nếu người dùng nhắc đến các cụm từ như “feeling” (cảm xúc) hay “Sydney” (tên mã nội bộ của Bing AI), cuộc trò chuyện tự động chấm dứt.

thai-do-loi-lom-cua-bing-chat-hoa-ra-nam-trong-du-lieu-cua-microsoft

Mặc dù câu chuyện đằng sau việc thử nghiệm Bing Chat của Microsoft vẫn chưa được công bố, nhưng rõ ràng AI đã được lên kế hoạch từ lâu. Đầu năm nay, Microsoft đã đầu tư hàng tỷ đô la vào OpenAI sau thành công của ChatGPT và bản thân Bing Chat được xây dựng trên phiên bản sửa đổi của mô hình GPT. Việc Microsoft quyết tâm dồn sức vào cuộc đua AI này cũng có thể một phần vì áp lực từ Google Bard sắp ra mắt.

Thông tin trên đều được Hoàng Hà Mobile tổng hợp. Đừng quên theo dõi Hoàng Hà Mobile để cập nhật các tin tức công nghệ mới nhất nhé!

Tham gia Hoàng Hà Mobile Group để cập nhật những chương trình và ưu đãi sớm nhất

Xem thêm: ĐẶT TRƯỚC GALAXY S23 SERIES GIÁ ƯU ĐÃI ĐỘC QUYỀN

Cùng Follow kênh Youtube của Hoàng Hà Mobile để cập nhật những tin tức mới nhất, sinh động nhất nhé!

Cho xem nhiều hơn

Những bài viết liên quan

0 0 đánh giá
Đánh giá bài viết
Theo dõi
Thông báo của
guest

Website này sử dụng Akismet để hạn chế spam. Tìm hiểu bình luận của bạn được duyệt như thế nào.

0 Góp ý
Phản hồi nội tuyến
Xem tất cả bình luận
Back to top button
0
Rất thích suy nghĩ của bạn, hãy bình luận.x

Adblock Detected

Vui lòng vô hiệu hóa chương trình chặn quảng cáo trước khi xem trang web TAMHOANG.NET!

Please disable ad blocking program before viewing TAMHOANG.NET website!