Tin công nghệ

Thời đại của AI – Bài 2: Con dao hai lưỡi

Không quá lời khi nói rằng AI đang từng ngày định hình lại xã hội. Tuy nhiên, giới chuyên gia cũng cảnh báo sự phát triển của công nghệ này nếu vượt quá tầm kiểm soát của con người sẽ là nguy cơ không nhỏ đối với thế giới.

Chú thích ảnh
Khách hàng trải nghiệm các thiết bị công nghệ mới nhất tại Triển lãm Di động thế giới 2023 (MWC 2023) ở Barcelona, Tây Ban Nha, ngày 28/2/2023. Ảnh: THX/TTXVN

Tổng thư ký LHQ Antonio Guterres nhấn mạnh rằng “những hồi chuông cảnh báo về AI  đang được gióng lên và chúng ta cần phải nghiêm túc xem xét những cảnh báo đó”. 

Nguy cơ có thể nhìn thấy rất dễ dàng chính là việc con người trở nên quá phụ thuộc vào AI, khi công nghệ đã “làm thay” rất nhiều việc. Mọi thông tin của con người đều được nạp vào AI, cả chủ động và thụ động, và sử dụng trên không gian mạng, ranh giới để đảm bảo tính cá nhân, riêng tư rất mong manh. AI cũng là “con dao hai lưỡi” trên thị trường lao động khi tước mất việc làm của các đối tượng lao động học vấn thấp, lao động chân tay hoặc mất việc làm do các công việc được tự động hóa.

Theo thống kê, có tới 1/3 số công việc tại 32 quốc gia được khảo sát đã biến mất do xu hướng này. AI cũng đang thể hiện sự vượt trội ở một số lĩnh vực như thực hiện giao dịch trên thị trường chứng khoán, giao dịch ngân hàng, tư vấn luật hay phân tích dữ liệu. Thực tế cho thấy các ngành nghề mới hình thành cùng sự phát triển của AI tuy giúp tăng thêm nhu cầu cho thị trường lao động, nhưng hầu hết các công việc mới này lại có yêu cầu hoàn toàn khác biệt và thường cần tiêu chuẩn cao hơn so với những công việc bị AI “xóa sổ”.

Bên cạnh đó, khoảng cách từ “nhờ” AI theo thói quen đến chỗ “lạm dụng” AI vì những mục đích không chính đáng là rất ngắn. Ví dụ AI có thể được sử dụng để tạo ra sản phẩm học tập (bài kiểm tra, luận văn…) một cách gian lận; để tổ chức đánh bạc bất hợp pháp trên không gian mạng; để thực hiện các hành vi trái pháp luật như xâm phạm tự do cá nhân, buôn lậu, phá hoại, trộm cắp, giết người; tạo ra những sản phẩm văn hóa sai trái, phản động với tốc độ cao, phương thức lan truyền rộng rãi, tinh vi, gây hiệu ứng xấu…

Điển hình nhất là câu chuyện về ChatGPT, sản phẩm “gây sốt” của công nghệ AI thời gian gần đây. Cửa hàng sách trực tuyến Kindle của Amazon hiện có hơn 200 cuốn e-book đề tên tác giả là ChatGPT. Trên mạng xã hội TikTok, các video chứa giọng nói giả lập của AI cũng nhận được người dùng yêu thích. Nhiều người đã sử dụng các công cụ AI để giả giọng người nổi tiếng, chính trị gia, tạo ra các đoạn hội thoại như thật, với mức phí chỉ khoảng 5 USD/tháng như trên ứng dụng chuyển biến giọng nói Celebrity Voice Changer.

Việc các hệ thống AI có thể tạo ra văn bản, hình ảnh và giọng nói dựa trên dữ liệu sẵn có lại có thể tiếp tay cho hành vi lừa đảo, tạo ra những thông tin sai lệch và lan truyền chúng rộng khắp trên mạng Internet, gây thiệt hại nghiêm trọng cho các cá nhân liên quan. Ngày càng có nhiều cảnh báo được đưa ra về các mối nguy hiểm đến từ AI nói riêng và công nghệ cao nói chung, trong đó có sự gia tăng về số lượng, mức độ tinh vi của các hành vi phạm tội trên không gian mạng. 

Cơ quan Cảnh sát châu Âu (Europol) đã gióng hồi chuông cảnh báo về nguy cơ sử dụng sản phẩm AI vào các âm mưu lừa đảo qua thư, giả mạo thông tin, cho rằng các sản phẩm công nghệ này giống như “con dao hai lưỡi” khi khơi mào một cuộc chiến cam go mới giữa các đối tượng tội phạm công nghệ cao và lực lượng bảo vệ an ninh mạng. Gần đây, không ít đối tượng tội phạm đã sử dụng Deepfake để lừa đảo. Deepfake là công nghệ ứng dụng AI tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác rất cao. Các chuyên gia an ninh mạng Australia cũng cảnh báo tin tặc đang sử dụng ứng dụng trò chuyện ChatGPT để tạo ra các email lừa đảo “thật” đến mức ngay cả những nhân viên được đào tạo bài bản về bảo mật của một công ty cũng bị mắc bẫy.

Không chỉ làm giả văn bản, giọng nói, AI còn tinh vi đến mức có thể tạo ra những “người bạn ảo”. Một sản phẩm như AI Xiaoice – “cô gái 18 tuổi” được Microsoft châu Á – Thái Bình Dương giới thiệu năm 2014, hay ứng dụng Replika, tác phẩm do kỹ sư Eugenia Kuyda ở California (Mỹ) phát triển năm 2017… được những người độc thân coi là bạn tâm giao. Ở nhiều nước đã xuất hiện những “câu chuyện tình lãng mạn”  giữa người và nhân vật do các ứng dụng AI tạo ra. Rõ ràng tình trạng này gây nguy cơ lệch lạc tâm lý tình cảm và rủi ro về quyền riêng tư và cuộc sống của chính nhân vật trong cuộc đời thực.

Chú thích ảnh
Biển quảng cáo ứng dụng ChatGPT tại triển lãm công nghệ trí tuệ nhân tạo ở Tokyo, Nhật Bản, ngày 10/5/2023. Ảnh: AFP/TTXVN

Tại cuộc họp đầu tiên của Hội đồng Bảo an LHQ về AI ngày 18/7, Tổng thư ký LHQ Antonio Guterres cùng nhiều đại sứ các nước đã lên tiếng cảnh báo về nguy cơ đối với hòa bình và an ninh toàn cầu từ AI. Mối đe dọa này hoàn toàn có thật khi ngày càng có nhiều ứng dụng AI trong do thám và giám sát cũng như phân tích, thậm chí là tự động lựa chọn các mục tiêu, chẳng hạn như đưa máy bay không người lái tới nước đối địch. Đây thực sự là điều nguy hiểm trong trường hợp xung đột. Việc sử dụng hệ thống vũ khí tự hành (AWS) đang là mối quan tâm lớn bởi hệ thống này có thể tấn công các mục tiêu mà không cần đến sự kiểm soát của con người. Mặc dù các chuyên gia cho rằng có thể còn lâu mới đạt được hiệp ước quy định về sử dụng AI trong chiến tranh, nhưng cần phải nhanh chóng xây dựng các hướng dẫn liên quan đến vấn đề này.

Ông Stuart Russell – giáo sư khoa học máy tính thuộc trường Đại học California (Mỹ), người đã có thâm niên hàng chục năm làm lãnh đạo trong lĩnh vực AI – cho rằng nếu không giám sát công nghệ này chặt chẽ, con người có thể gánh hậu quả không tưởng trong tương lai. Theo ông Russell, các phòng thí nghiệm AI đang tiếp tục “cuộc chạy đua ngoài tầm kiểm soát” để phát triển và triển khai những bộ óc kỹ thuật số mạnh mẽ hơn bao giờ hết, mà không ai – kể cả người tạo ra chúng – có thể kiểm soát một cách đáng tin cậy. Ngay cả Giám đốc điều hành (CEO) của công ty công nghệ OpenAI – nơi đã tạo ra chatbot ChatGPT – ông Sam Altman cũng thừa nhận rằng AI đang gây ra “nguy cơ hiện hữu” đối với nhân loại, do đó, cần thành lập một cơ quan quốc tế để giám sát công nghệ đột phá này.

Ông Russell và ông Altman đã cùng hơn 30.000 nhà quản lý trong lĩnh vực công nghệ, trong đó bao gồm cả những gương mặt kỳ cựu như CEO Tesla Elon Musk và nhà đồng sáng lập Apple Steve Wozniak, ký một bức thư ngỏ cảnh báo những rủi ro tiềm tàng của AI, đồng thời kêu gọi tạm dừng mở rộng quy mô phát triển công nghệ này. Ông nêu rõ: “Trước việc sức mạnh của AI đang tăng lên mỗi ngày, điều quan trọng là chúng ta phải lùi lại một bước và đảm bảo rằng những công nghệ mạnh mẽ này được phát triển và triển khai một cách có trách nhiệm và an toàn”.

Theo công ty kiểm toán hàng đầu thế giới Pricewaterhouse Coopers, vào năm 2030, AI sẽ đóng góp khoảng 15.700 tỷ USD cho nền kinh tế toàn cầu, đồng thời tạo ra những ngành công nghiệp mới và việc làm mới. Sự phát triển của AI đã được công nhận rộng rãi như một minh chứng về sức mạnh toàn diện của từng quốc gia thông qua năng lực thực hiện đổi mới, sáng tạo. Tuy nhiên, thách thức lớn nhất mà giới hoạch định chính sách và các nhà phát triển AI cần vượt qua là “cùng đảm bảo một tương lai có trách nhiệm của công nghệ AI” như mục tiêu đã đề ra tại hội nghị “AI for Good Global Summit” vừa được LHQ tổ chức tháng 7 vừa qua tại Geneva (Thụy Sĩ).

Bài cuối: Thích ứng và làm chủ công nghệ

Thanh Phương (TTXVN)
Cho xem nhiều hơn

Những bài viết liên quan

0 0 đánh giá
Đánh giá bài viết
Theo dõi
Thông báo của
guest

Website này sử dụng Akismet để hạn chế spam. Tìm hiểu bình luận của bạn được duyệt như thế nào.

0 Góp ý
Phản hồi nội tuyến
Xem tất cả bình luận
Back to top button
0
Rất thích suy nghĩ của bạn, hãy bình luận.x

Adblock Detected

Vui lòng vô hiệu hóa chương trình chặn quảng cáo trước khi xem trang web TAMHOANG.NET!

Please disable ad blocking program before viewing TAMHOANG.NET website!