Friday, November 22 Bitcoin là gì? Có nên đầu tư vào bitcoin hay không?

Mikko Hyppönen, được ví là thợ săn hacker, dự đoán AI sẽ “thổi bùng ngọn lửa lừa đảo” trong năm 2024 thông qua deepfake hay lỗ hổng bảo mật zero-day.

“AI thay đổi mọi thứ”, Mikko Hyppönen, chuyên gia an ninh mạng hàng đầu thế giới người Phần Lan, nói với TNW. “Cuộc cách mạng trí tuệ nhân tạo sẽ lớn hơn so với cuộc cách mạng Internet”.

Mikko Hyppönen. Ảnh: WithSecure

Mikko Hyppönen. Ảnh: WithSecure

Hyppönen, 54 tuổi, đã dành nhiều thập kỷ ở tuyến đầu trong cuộc chiến chống lại phần mềm độc hại và những kẻ phát tán đứng sau. Ông từng làm tại hãng bảo mật F-Secure, tham gia truy tìm những tin tặc tạo ra một số sâu máy tính khét tiếng trên Internet. Hiện ông giữ vai trò Giám đốc nghiên cứu tại WithSecure – công ty an ninh mạng lớn nhất ở Bắc Âu, cũng như phụ trách Malware Museum, bảo tàng trực tuyến về mã độc và phần mềm độc hại. Ông đã chỉ ra một số mối lo ngại lớn nhất mà AI có thể sẽ gây ra trong năm nay.

Mối nguy deepfake

Trong năm 2023, sự xuất hiện của các công cụ AI tạo sinh đã khiến ảnh, video giả trở nên phổ biến. Theo nghiên cứu từ công ty phân tích dữ liệu Onfido có trụ sở tại London, các hành vi lừa đảo bằng deepfake tăng 3.000% trong năm qua. Trong khi đó, lừa đảo tài chính khai thác kỹ thuật deepfake đã diễn ra dù chưa nhiều, nhưng được dự đoán sẽ tăng mạnh thời gian tới. “Mọi thứ chưa xảy ra ở quy mô lớn, nhưng sẽ bùng phát chỉ trong thời gian ngắn”, Hyppönen nói.

Để hạn chế rủi ro, người dùng nên ưu tiên yếu tố an toàn. Chẳng hạn, khi người thân hoặc bạn bè yêu cầu chuyển tiền hoặc tài liệu bí mật, người dùng nên gọi video với thời gian đủ dài, nói một số câu chuyện để xác thực có đúng là người thật. “Điều đó có thể nực cười nhưng đáng làm”, Hyppönen nói. “Thiết lập quy tắc an toàn cho riêng mình là biện pháp rẻ nhưng hiệu quả”.

Vấn đề deepscam

Có tên tương tự deepfake, nhưng deepscam có cách thức lừa đảo rộng lớn hơn. Chữ “deep” ở đây ám chỉ quy mô của các cách thức lừa đảo, từ lừa đảo đầu tư, tài sản cho đến tình cảm. Nhờ sự có mặt của AI, quy mô và tốc độ lừa đảo sẽ tăng lên gấp nhiều lần so với trước.

“Kẻ xấu có thể dụ dỗ 10.000 nạn nhân cùng lúc với sự giúp sức của AI thay vì ba hoặc bốn nạn nhân”, Hyppönen cho biết.

Ông lấy ví dụ với dịch vụ đặt phòng Airbnb. Kẻ xấu có thể sử dụng hình ảnh bị đánh cắp, sau đó tạo nội dung thuyết phục khách du lịch đặt chỗ. Nếu như thông thường, quá trình này tốn nhiều thời gian. Nhưng với AI tạo sinh, những rào cản đó sẽ không còn tồn tại nữa. “Với Stable Diffusion, Dall-E và Midjourney, bạn có thể tạo ra vô số hình ảnh về các căn nhà cho thuê Airbnb hoàn toàn hợp lý, độ thuyết phục cao và không giới hạn mà người khác rất khó phát hiện”, ông nói.

Phần mềm độc hại

Hyppönen cho biết nhóm nghiên cứu của ông đã phát hiện một số phần mềm AI có thể tự viết mã độc và đăng lên các diễn đàn mở như GitHub. Chẳng hạn, bằng cách dùng API GPT của OpenAI, một hacker dễ dàng tạo mã độc chỉ thông qua vài dòng mô tả.

Các công ty như OpenAI thường đưa các tài khoản vào danh sách đen nếu họ yêu cầu ChatGPT hoặc các API GPT viết mã độc. Dù vậy, với cơ chế nguồn mở của hầu hết mô hình ngôn ngữ lớn (LLM), toàn bộ mô hình bất kỳ có thể được tải về và sử dụng cho mục đích riêng. “Bạn có thể tải xuống toàn bộ một LLM và chạy nó cục bộ trên máy chủ riêng. Lúc này, không ai có thể đưa bạn vào danh sách đen được. Đây là nhược điểm của các chương trình nguồn mở”, Hyppönen giải thích.

Khai thác lỗ hổng zero-day

Các lỗ hổng zero-day (lỗ hổng chưa được phát hiện hoặc chưa có bản vá) vẫn thường xuyên được tìm thấy trên các nền tảng. Tuy nhiên, AI có thể khiến quá trình tìm lỗi được đẩy nhanh tốc độ.

“Thật tuyệt khi bạn có thể tìm ra lỗi trên hệ thống của mình sớm nhờ AI. Nhưng cũng thật khủng khiếp nếu hacker làm điều đó nhanh hơn bạn. Mọi thứ đang được kiểm soát, nhưng mối nguy có thể sớm thành hiện thực trong thời gian ngắn”, chuyên gia Phần Lan nhận định.

Ông trích dẫn bài luận của một thực tập sinh tại WithSecure chứng minh mối đe dọa này. Cụ thể, với vài dòng lệnh trên máy tính Windows 11 và một công cụ AI, sinh viên đó đã tự động hóa hoàn toàn quá trình quét tìm lỗ hổng để trở thành quản trị viên cục bộ, sau đó điều khiển máy tính khác trong cùng mạng mà không cần sự chấp thuận của tài khoản quản trị viên. Dù vậy, ông tự chối công bố chi tiết luận án vì đang trong quá trình nghiên cứu.

Con đường nguy hiểm đến AGI

Ngoài bốn cảnh báo kể trên, Hyppönen nói ông lo lắng về an ninh mạng trong tương lai khi siêu trí tuệ nhân tạo tổng quát AGI xuất hiện. AGI được mô tả là những cỗ máy hoặc hệ thống có khả năng tư duy như con người. Khái niệm này được nhà vật lý người Mỹ Mark Gubrud đề cập trong các thảo luận về chủ đề tự động hóa từ 1997.

Hyppönen nhắc lại một giả thuyết về bảo mật IoT được đưa ra lần đầu năm 2016 là Định luật Hyppönen, trong đó nói bất cứ khi nào một thiết bị được mô tả là “thông minh”, nó sẽ dễ bị tấn công. Nói cách khác, mọi công nghệ thông minh mà con người sử dụng đều có nguy cơ bị hacker xâm nhập. Nếu áp dụng cho các cỗ máy siêu thông minh, nhân loại có thể gặp rắc rối nghiêm trọng.

“Tôi nghĩ chúng ta sẽ chỉ là kẻ thông minh thứ hai trên hành tinh này. AGI chưa xuất hiện năm 2024, nhưng một lúc nào đó trong cuộc đời tôi, mọi thứ sẽ xảy ra”, ông dự đoán.

Trước đó, một số chuyên gia cũng nhận định tương tự về tốc độ phát triển của AGI. “Tôi từng nghĩ phải 20-50 năm tới con người mới đạt được AGI, nhưng giờ mọi thứ thay đổi quá nhanh. Vấn đề của chúng ta là tìm cách kiểm soát chúng”, Geoffrey Hinton, giáo sư đoạt giải Turing – giải thưởng cao nhất về khoa học máy tính, nói với CBS News vào tháng 3/2023.

Theo Hyppönen, con người nên kiểm soát mô hình AI bằng cách liên kết chặt chẽ giữa mục tiêu và nhu cầu. “Những thứ chúng ta đang xây dựng phải có sự hiểu biết về con người và chia sẻ lợi ích lâu dài với con người”, ông nói. “AI có ưu điểm lớn hơn bất cứ điều gì từ trước đến nay, nhưng nhược điểm cũng vậy”.

Share.

Leave a Reply