![]() |
Microsoftgần đây đã phát hành VALL-E – một công cụ trí tuệ nhân tạo (AI) có thể tái tạo giọng nói của mọi người với mẫu 3 giây. Nó được cho là có thể sao chép bất kỳ giọng nói nào, bao gồm cả cảm xúc và âm điệu của người nói trong khi tạo bản ghi âm.
Theo báo cáo của Windows Central, công cụ AI đã được đào tạo trên 60.000 giờ dữ liệu giọng nói tiếng Anh và các đoạn nhỏ giọng nói cụ thể để tạo nội dung. Báo cáo cũng nói rằng trong khi một số bản ghi nghe có vẻ tự nhiên, thì những bản ghi khác nghe như được tạo bởi rô-bốt hoặc máy móc.
Cũng có báo cáo rằng nếu được cung cấp một bộ mẫu lớn hơn, VALL-E có thể tạo ra các mẫu thực tế hơn.
Ý nghĩa của VALL-E
Mặc dù VALL-E có nhiều trường hợp sử dụng tích cực, chẳng hạn như trong ngành sản xuất, nhưng nó cũng gây ra mối đe dọa. Ví dụ: mọi người có thể sử dụng VALL-E để làm cho các cuộc gọi spam nghe như thật và lừa những người dùng không biết. Các chính trị gia hoặc những người có ảnh hưởng xã hội cũng có thể bị mạo danh. Nó cũng gây ra mối đe dọa bảo mật trong trường hợp cần mật khẩu bằng giọng nói.
Hơn nữa, VALL-E cũng có thể khiến các nghệ sĩ lồng tiếng làm việc trong phim và sách nói thất nghiệp. Điều an ủi là VALL-E vẫn chưa có sẵn, đó là một điều tốt. Microsoft có một tuyên bố đạo đức về việc sử dụng VALL-E.
Những lo ngại liên quan đến ChatGPT
Những lo ngại tương tự liên quan đến công việc đã được bày tỏ ngay sau khi ChatGPT của OpenAI trở thành hiện tượng chỉ sau một đêm sau khi ra mắt vào năm ngoái.
Gần đây, Chester Wisniewski, nhà khoa học nghiên cứu chính tại Sophoscho biết khi ChatGPT tiếp tục thu hút thế giới trực tuyến, chúng tôi không thể bỏ qua khía cạnh bảo mật của nó.
“ChatGPT là một thử nghiệm thú vị vào thời điểm hiện tại, nhưng tính khả dụng rộng rãi hơn của nó chắc chắn sẽ mang đến những thách thức mới. Tôi đã chơi với nó kể từ khi nó ra mắt công chúng vào tháng 11 năm 2022 và khá dễ dàng để thuyết phục nó hỗ trợ tạo ra các mồi nhử lừa đảo rất thuyết phục và phản hồi theo cách đối thoại có thể thúc đẩy các vụ lừa đảo lãng mạn và các cuộc tấn công xâm phạm email doanh nghiệp. Wisniewski cho biết OpenAI dường như đang cố gắng hạn chế các hoạt động rủi ro cao do lạm dụng việc sử dụng nó, nhưng con mèo hiện đã ra khỏi túi.
“Ngày nay, rủi ro lớn nhất là đối với những người nói tiếng Anh, nhưng có thể chỉ là vấn đề thời gian trước khi có thể tạo ra văn bản đáng tin cậy bằng hầu hết các ngôn ngữ thông dụng nhất trên thế giới. Chúng tôi đã đạt đến một giai đoạn mà con người khó có thể phân biệt được văn xuôi do máy tạo ra với văn bản do con người viết trong các cuộc trò chuyện thông thường với những người mà chúng tôi không thân thiết, điều này sẽ lọc bảo mật để hỗ trợ ngăn chặn con người trở thành nạn nhân,” nhà khoa học cho biết.