Lòng vị tha hiệu quả đang thúc đẩy một

[ad_1]

Cài Win online

Kể từ đó, nhiệm vụ phổ biến các mô hình ngôn ngữ ngày càng lớn hơn đã tăng tốc và nhiều mối nguy hiểm mà chúng tôi đã cảnh báo, chẳng hạn như xuất ra văn bản thù địch và thông tin sai lệch hàng loạt, tiếp tục xuất hiện. Chỉ vài ngày trước, Meta đã phát hành “Galactica” LLM, nhằm mục đích “tóm tắt các bài báo học thuật, giải các bài toán, tạo các bài báo trên Wiki, viết mã khoa học, chú thích các phân tử và protein, v.v.”. Chỉ ba ngày sau, bản demo công khai đã bị gỡ xuống sau khi các nhà nghiên cứu tạo ra “các tài liệu nghiên cứu và mục nhập wiki về nhiều chủ đề khác nhau, từ lợi ích của việc tự tử, ăn thủy tinh vụn và chủ nghĩa bài Do Thái, cho đến lý do tại sao đồng tính luyến ái là xấu xa”.

Cuộc đua này chưa dừng lại ở LLM mà đã chuyển sang các mô hình chuyển văn bản thành hình ảnh như OpenAI’s DALL-E và StabilityAI’s Stable Diffusion, các mô hình lấy văn bản làm đầu vào và tạo ra hình ảnh dựa trên văn bản đó. Theo báo cáo của nhiều nhà nghiên cứu và nhà báo, sự nguy hiểm của những mô hình này bao gồm việc tạo ra nội dung khiêu dâm trẻ em, duy trì thành kiến, củng cố định kiến ​​và lan truyền thông tin sai lệch trên diện rộng. Tuy nhiên, thay vì chậm lại, các công ty đang loại bỏ một số tính năng an toàn mà họ có để hỗ trợ lẫn nhau. Chẳng hạn, OpenAI đã hạn chế việc chia sẻ các khuôn mặt được tạo bằng hình ảnh chân thực trên phương tiện truyền thông xã hội. Nhưng sau khi các công ty khởi nghiệp mới thành lập như StabilityAI, được cho là đã huy động được 101 triệu đô la với mức định giá khổng lồ 1 tỷ đô la, gọi các biện pháp an toàn như vậy là “gia trưởng”, OpenAI đã loại bỏ những hạn chế này.

Với việc EA thành lập và tài trợ cho các viện, công ty, nhóm chuyên gia tư vấn và nhóm nghiên cứu trong các trường đại học ưu tú dành riêng cho thương hiệu “an toàn AI” do OpenAI phổ biến, chúng ta sẵn sàng chứng kiến ​​sự gia tăng nhiều hơn của các mô hình có hại được quảng cáo là một bước hướng tới “ AGI có lợi. ” Và ảnh hưởng bắt đầu sớm: Những người vị tha hiệu quả cung cấp “tài trợ xây dựng cộng đồng” để tuyển dụng tại các trường đại học lớn, với các chương EA phát triển chương trình giảng dạy và các lớp giảng dạy về an toàn AI tại các trường đại học ưu tú như Stanford.

Mới năm ngoái, Anthropic, được mô tả là “công ty nghiên cứu và an toàn AI” và được thành lập bởi các cựu phó chủ tịch nghiên cứu và an toàn của OpenAI, đã huy động được 704 triệu USD, với phần lớn nguồn vốn đến từ các tỷ phú EA như Talin, Muskovitz và Bankman. -Chiên. Một hội thảo sắp tới về “An toàn AI” tại NeurIPS, một trong những hội nghị về máy học lớn nhất và có ảnh hưởng nhất trên thế giới, cũng được quảng cáo là được tài trợ bởi FTX Future Fund, tổ chức từ thiện tập trung vào EA của Bankman-Fried mà nhóm của họ đã từ chức hai tuần trước. Hội thảo quảng cáo 100.000 đô la cho “giải thưởng bài viết hay nhất”, một số tiền mà tôi chưa từng thấy trong bất kỳ ngành học thuật nào.

Các ưu tiên nghiên cứu tuân theo nguồn tài trợ và với số tiền lớn được đổ vào AI để hỗ trợ một ý thức hệ với các tỷ phú ủng hộ, không có gì ngạc nhiên khi lĩnh vực này đang đi theo hướng hứa hẹn một “tương lai tuyệt vời ngoài sức tưởng tượng” trong khi phổ biến các sản phẩm gây hại cho các nhóm yếu thế trong hiện tại.

Thay vào đó, chúng ta có thể tạo ra một tương lai công nghệ phục vụ chúng ta. Lấy ví dụ, Te Hiku Media, công ty đã tạo ra công nghệ ngôn ngữ để hồi sinh te reo Māori, tạo ra giấy phép dữ liệu “dựa trên nguyên tắc của người Maori về kaitiakitanga, hoặc quyền giám hộ” để bất kỳ dữ liệu nào được lấy từ người Maori đều có lợi cho họ trước tiên. Ngược lại cách tiếp cận này với cách tiếp cận của các tổ chức như StabilityAI, tổ chức loại bỏ các tác phẩm của các nghệ sĩ mà không có sự đồng ý hoặc ghi công của họ trong khi có ý định xây dựng “AI cho mọi người”. Chúng ta cần giải phóng trí tưởng tượng của mình khỏi thứ mà chúng ta đã bị bán cho đến nay: cứu chúng ta khỏi ngày tận thế AGI giả định do một số ít người có đặc quyền tưởng tượng ra, hoặc điều không tưởng về công nghệ luôn khó nắm bắt mà giới tinh hoa ở Thung lũng Silicon hứa hẹn với chúng ta. Chúng ta cần giải phóng trí tưởng tượng của mình khỏi thứ mà chúng ta đã bị bán cho đến nay: cứu chúng ta khỏi ngày tận thế AGI giả định do một số ít người có đặc quyền tưởng tượng ra, hoặc điều không tưởng về công nghệ khó nắm bắt mà giới tinh hoa ở Thung lũng Silicon hứa hẹn với chúng ta.

cài đặt phần mềm online
[ad_2]