Nguy hiểm và Rủi ro của Trí tuệ nhân tạo AI là gì ? - Những điều cần tránh cho con người
( Weekly Study - IoT/AI ) Tại bài viết trước, chúng ta đã bàn luận về trí tuệ nhân tạo thông qua các câu chuyện của các diễn giả tên TED Talks, trong đó có câu chuyện: Can we Build AI without Losing Control Over It ? của Sam Harris nói về ảnh hưởng của Trí tuệ nhân tạo đối với kinh tế, văn hóa, xã hội và hơn cả là con người.
Bài viết này, tôi sẽ nói về Nguy hiểm và Rủi ro của trí tuệ nhân tạo, chúng ta cần áp dụng Đạo đức AI trong việc xây dựng một sản phẩm trí tuệ nhân tạo.
>>> AI Ethics - Đạo đức AI là gì ?
Chúng ta có nên sợ trí tuệ nhân tạo (AI)?
Một số nhân vật nổi tiếng, chẳng hạn như nhà vật lý huyền thoại Stephen Hawking, nhà lãnh đạo và người sáng tạo Tesla và SpaceX, Elon Musk tin rằng trí tuệ nhân tạo có thể rất nguy hiểm; Musk từng so sánh trí tuệ nhân tạo với sự nguy hiểm của một nhà độc tài Triều Tiên. Đồng sáng lập Microsoft, Bill Gates, cũng tin rằng có những lý do để thận trọng, nhưng nếu quản lý đúng cách, lợi thế nhiều hơn bất lợi. Vì những phát triển gần đây đã tạo ra những cỗ máy siêu thông minh sớm hơn nhiều so với suy nghĩ ban đầu, nên đã đến lúc chúng ta cần nhận ra những mối nguy hiểm do trí tuệ nhân tạo gây ra.
Trí tuệ nhân tạo nguy hiểm như thế nào?
Mặc dù chúng ta chưa đạt đến những cỗ máy siêu thông minh, nhưng các vấn đề pháp lý, chính trị, xã hội, tài chính và quy định rất phức tạp và sâu rộng, điều quan trọng là phải xem xét chúng ngay bây giờ và chúng tôi sẵn sàng vận hành chúng một cách an toàn khi đến thời điểm thích hợp.
5 Rủi ro của Trí tuệ nhân tạo đến cuộc sống con người
1. Tự động hóa và gián đoạn công việc
Tự động hóa là một mối nguy hiểm của trí tuệ nhân tạo, và nó đã và đang ảnh hưởng đến xã hội.
Từ các nhà máy sản xuất hàng loạt để tự thanh toán cho đến ô tô tự lái, tự động hóa đã tồn tại trong nhiều thập kỷ và sự phát triển của nó đang tăng tốc. Một nghiên cứu năm 2019 của Viện Brookings cho thấy 36 triệu việc làm có thể có nguy cơ tự động hóa cao trong vài năm tới.
Vấn đề là đối với nhiều nhiệm vụ, hệ thống trí tuệ nhân tạo hoạt động tốt hơn con người. Chúng rẻ hơn, hiệu quả hơn và chính xác hơn con người. Ví dụ, trí thông minh nhân tạo tốt hơn các chuyên gia con người trong việc xác định gian lận nghệ thuật, và giờ đây nó đã trở nên chính xác hơn trong việc chẩn đoán khối u thông qua hình ảnh X quang.
Một vấn đề nữa là với việc chuyển đổi công việc sau khi tự động hóa, nhiều người lao động bị mất việc làm không đủ điều kiện để làm việc mới do trí tuệ nhân tạo tạo ra do không có chứng chỉ hoặc chuyên môn.
Khi các hệ thống trí tuệ nhân tạo tiếp tục được cải thiện, chúng sẽ trở nên thành thạo hơn con người. Đây có thể là nhận dạng mẫu, cung cấp thông tin chi tiết hoặc đưa ra dự đoán chính xác. Do đó, gián đoạn công việc có thể dẫn đến gia tăng bất bình đẳng xã hội và thậm chí dẫn đến thảm họa kinh tế.
2. Bảo mật và Quyền riêng tư
Vào năm 2020, chính phủ Anh đã ủy quyền một báo cáo về an ninh quốc gia và trí tuệ nhân tạo của Anh. Báo cáo nhấn mạnh sự cần thiết của trí tuệ nhân tạo trong phòng thủ an ninh mạng của Vương quốc Anh. Vương quốc Anh phát hiện và giảm thiểu các mối đe dọa đòi hỏi tốc độ phản hồi nhanh hơn so với việc ra quyết định của con người.
Điều quan trọng là hy vọng rằng khi các vấn đề an ninh do AI tăng lên, khả năng răn đe do AI cũng sẽ tăng lên. Trừ khi chúng ta có thể đề ra các biện pháp để bảo vệ mình khỏi các vấn đề về trí tuệ nhân tạo, chúng ta có thể sẽ phải cạnh tranh không ngừng với những kẻ xấu.
Điều này cũng đặt ra câu hỏi về cách chúng ta có thể làm cho các hệ thống AI tự an toàn. Nếu chúng ta muốn sử dụng các thuật toán AI để ngăn chặn các vấn đề bảo mật khác nhau, chúng ta cần đảm bảo rằng bản thân AI được an toàn trước các tác nhân xấu.
Khi nói đến quyền riêng tư, các công ty lớn và chính phủ buộc phải vi phạm quyền riêng tư của chúng tôi. Với rất nhiều dữ liệu cá nhân có sẵn trực tuyến ngày nay (2,5 triệu terabyte dữ liệu được tạo ra mỗi ngày), các thuật toán trí tuệ nhân tạo đã có thể dễ dàng tạo hồ sơ người dùng để đạt được mục tiêu quảng cáo hiệu quả.
Công nghệ nhận dạng khuôn mặt cũng vô cùng phức tạp. Máy ảnh có thể thực hiện phân tích thời gian thực. Một số lực lượng cảnh sát trên thế giới báo cáo rằng việc sử dụng kính thông minh với phần mềm nhận dạng khuôn mặt có thể dễ dàng đánh dấu đối tượng truy nã hoặc nghi phạm.
Rủi ro là công nghệ này có thể được mở rộng cho các chế độ độc tài hoặc chỉ các cá nhân hoặc nhóm độc hại.
3. Phần mềm độc hại AI
Trí tuệ nhân tạo ngày càng tốt hơn trong việc bẻ khóa hệ thống bảo mật và bẻ khóa mã hóa. Một cách điều này xảy ra là thông qua phần mềm độc hại "tiến hóa" thông qua các thuật toán học máy. Phần mềm độc hại có thể tìm hiểu những gì hoạt động thông qua thử và sai và trở nên nguy hiểm hơn theo thời gian.
Các công nghệ thông minh mới hơn (chẳng hạn như ô tô tự lái) được coi là mục tiêu có nguy cơ cao đối với các cuộc tấn công như vậy và các tác nhân xấu có thể gây ra tai nạn hoặc tắc nghẽn ô tô. Khi chúng ta ngày càng phụ thuộc nhiều hơn vào công nghệ kết nối Internet thông minh, cuộc sống hàng ngày của chúng ta sẽ ngày càng bị ảnh hưởng bởi nguy cơ gián đoạn.
Một lần nữa, giải pháp thực sự duy nhất cho mối nguy hiểm này là AI chống phần mềm độc hại, bảo vệ các cá nhân và doanh nghiệp tốt hơn so với AI độc hại.
4. Vũ khí tự trị
Vũ khí tự trị — vũ khí được điều khiển bởi hệ thống AI chứ không phải do con người quyết định— đã tồn tại và đã xuất hiện được một thời gian. Hàng trăm chuyên gia công nghệ đã thúc giục LHQ phát triển một cách để bảo vệ nhân loại khỏi những rủi ro liên quan đến vũ khí tự trị.
Quân đội chính phủ trên toàn thế giới đã có quyền truy cập vào nhiều hệ thống vũ khí do AI điều khiển hoặc bán do AI điều khiển, như máy bay không người lái quân sự. Với phần mềm nhận dạng khuôn mặt, máy bay không người lái có thể theo dõi một cá nhân.
Điều gì sẽ xảy ra khi chúng ta bắt đầu cho phép các thuật toán AI đưa ra quyết định sống chết mà không cần bất kỳ quyết định của con người?
Cũng có thể tùy chỉnh công nghệ tiêu dùng (như máy bay không người lái) để bay tự động và thực hiện các tác vụ khác nhau. Loại khả năng này trong tay kẻ xấu có thể ảnh hưởng đến an ninh của một cá nhân cụ thể.
5. Deepfakes, Fake News và An ninh chính trị
Phần mềm tái tạo khuôn mặt (thường được gọi là công nghệ deepfake) ngày càng trở nên khó phân biệt với thực tế.
Mối nguy hiểm của những trò lừa đảo sâu sắc đã và đang ảnh hưởng đến những người nổi tiếng và các nhà lãnh đạo thế giới, và chỉ còn rất lâu nữa cho đến khi điều này xảy ra với những người bình thường. Ví dụ, những kẻ lừa đảo đã tống tiền mọi người bằng các video deepfake được tạo từ thứ gì đó đơn giản và dễ tiếp cận như ảnh hồ sơ Facebook.
Và đó không phải là rủi ro duy nhất. AI có thể tạo lại và chỉnh sửa ảnh, soạn văn bản, sao chép giọng nói và tự động tạo ra quảng cáo được nhắm mục tiêu cao. Chúng ta đã thấy một số mối nguy hiểm này tác động đến xã hội như thế nào.
Kết luận
Khi trí tuệ nhân tạo AI ngày càng phát triển về độ tinh vi và khả năng thực hiện các tác vụ. Nhưng thật không may, công nghệ luôn có nguy cơ bị lạm dụng, những rủi ro này ảnh hưởng đến hầu hết mọi khía cạnh của cuộc sống hàng ngày của chúng ta, từ quyền riêng tư đến an ninh chính trị đến tự động hóa công việc.
Bước đầu tiên trong việc giảm thiểu rủi ro của trí tuệ nhân tạo sẽ là quyết định nơi chúng ta muốn sử dụng AI và nơi nào không nên khuyến khích sử dụng trí tuệ nhân tạo. Tăng cường nghiên cứu và tranh luận về các hệ thống AI trong việc sử dụng chúng là bước đầu tiên để ngăn chúng bị lạm dụng.
Weeklystudy - Kênh tri thức Việt
Tham gia Cộng đồng để tải miễn phí, cập nhật thông tin Khóa học, tài liệu, ebook mới:
>>> Fanpage: Weekly Study
>>> Group: Tổng Kho Khóa Học Online Free
Copyright Disclaimer:
This site does not store any files on its server. We only index and link to content provided by other sites. Please contact the content providers to delete copyright contents if any and email us, we'll remove relevant links or contents immediately.