3 cách để chế ngự trò chuyệnGPT

[ad_1]

Cài Win online

Năm nay, chúng tôi đã chứng kiến ​​sự ra đời của các hệ thống AI tổng hợp mạnh mẽ có khả năng tạo hình ảnh và văn bản theo yêu cầu.

Đồng thời, các cơ quan quản lý đang di chuyển. Châu Âu đang trong quá trình hoàn thiện quy định về AI (Đạo luật AI), nhằm mục đích đưa ra các quy tắc nghiêm ngặt đối với các hệ thống AI có rủi ro cao. Canada, Vương quốc Anh, Hoa Kỳ và Trung Quốc đều đã đưa ra các phương pháp tiếp cận riêng của họ để điều chỉnh AI có tác động cao. Nhưng AI có mục đích chung dường như là một suy nghĩ muộn hơn là trọng tâm cốt lõi. Khi các quy tắc quản lý mới của Châu Âu được đề xuất vào tháng 4 năm 2021, không có đề cập nào về các mô hình nền tảng, mục đích chung, bao gồm cả AI tổng quát. Chưa đầy một năm rưỡi sau, hiểu biết của chúng ta về tương lai của AI đã thay đổi hoàn toàn. Việc miễn trừ một cách phi lý các mô hình nền tảng ngày nay khỏi các đề xuất này sẽ biến các quy định về AI thành những con hổ giấy có vẻ mạnh mẽ nhưng không thể bảo vệ các quyền cơ bản.

ChatGPT đã thực hiện Mô hình AI thay đổi hữu hình. Giờ đây, một số mô hình—chẳng hạn như GPT-3, DALL-E, Stable Diffusion và AlphaCode—đang trở thành nền tảng cho hầu hết tất cả các hệ thống dựa trên AI. Các công ty khởi nghiệp AI có thể điều chỉnh các tham số của các mô hình nền tảng này để phù hợp hơn với các nhiệm vụ cụ thể của họ. Bằng cách này, các mô hình nền tảng có thể cung cấp một số lượng lớn các ứng dụng xuôi dòng trong các lĩnh vực khác nhau, bao gồm tiếp thị, bán hàng, dịch vụ khách hàng, phát triển phần mềm, thiết kế, trò chơi, giáo dục và luật.

Mặc dù các mô hình nền tảng có thể được sử dụng để tạo các ứng dụng và mô hình kinh doanh mới, nhưng chúng cũng có thể trở thành một cách mạnh mẽ để truyền bá thông tin sai lệch, tự động hóa thư rác chất lượng cao, viết phần mềm độc hại cũng như ăn cắp nội dung và phát minh có bản quyền. Các mô hình nền tảng đã được chứng minh là có chứa thành kiến ​​và tạo ra nội dung rập khuôn hoặc định kiến. Những mô hình này có thể mô phỏng chính xác nội dung cực đoan và có thể được sử dụng để cực đoan hóa các cá nhân theo hệ tư tưởng cực đoan. Họ có khả năng lừa dối và trình bày thông tin sai lệch một cách thuyết phục. Đáng lo ngại, những sai sót tiềm ẩn trong các mô hình này sẽ được chuyển sang tất cả các mô hình tiếp theo, có khả năng dẫn đến các vấn đề phổ biến nếu không được quản lý một cách có chủ ý.

Vấn đề “nhiều tay” đề cập đến thách thức quy kết trách nhiệm đạo đức đối với kết quả do nhiều tác nhân gây ra và nó là một trong những động lực chính làm xói mòn trách nhiệm giải trình khi nói đến các xã hội thuật toán. Trách nhiệm giải trình đối với chuỗi cung ứng AI mới, nơi các mô hình nền tảng cung cấp hàng trăm ứng dụng hạ nguồn, phải được xây dựng dựa trên tính minh bạch từ đầu đến cuối. Cụ thể, chúng ta cần tăng cường tính minh bạch của chuỗi cung ứng ở ba cấp độ và thiết lập một vòng phản hồi giữa chúng.

Minh bạch trong các mô hình nền tảng là rất quan trọng để cho phép các nhà nghiên cứu và toàn bộ chuỗi cung ứng hạ nguồn của người dùng điều tra và hiểu các lỗ hổng và sai lệch của mô hình. Bản thân các nhà phát triển mô hình đã thừa nhận nhu cầu này. Ví dụ: các nhà nghiên cứu của DeepMind đề xuất rằng tác hại của các mô hình ngôn ngữ lớn phải được giải quyết bằng cách cộng tác với nhiều bên liên quan dựa trên mức độ đủ khả năng giải thích và diễn giải để cho phép phát hiện, đánh giá và giảm thiểu tác hại một cách hiệu quả. Cần có các phương pháp đo lường và định chuẩn chuẩn, chẳng hạn như HELM của Đại học Standford. Những mô hình này đang trở nên quá mạnh mẽ để hoạt động mà không cần đánh giá bởi các nhà nghiên cứu và kiểm toán viên độc lập. Các cơ quan quản lý nên đặt câu hỏi: Chúng ta có đủ hiểu biết để có thể đánh giá đâu là mô hình nên áp dụng và đâu là cấm đoán? Các ứng dụng hạ nguồn có rủi ro cao có thể được đánh giá đúng về độ an toàn và độ bền với thông tin có sẵn không?

cài đặt phần mềm online
[ad_2]

Vui lòng đánh giá về dịch vụ tại nhà