Google đã biến ngôn ngữ AI trở thành trung tâm của I / O trong khi bỏ qua quá khứ rắc rối của nó tại công ty

Hôm qua, tại hội nghị nhà phát triển I / O của Google, công ty đã vạch ra kế hoạch đầy tham vọng cho tương lai của nó được xây dựng trên nền tảng của ngôn ngữ tiên tiến AI. Giám đốc điều hành Google Sundar Pichai cho biết, những hệ thống này sẽ cho phép người dùng tìm kiếm thông tin và tổ chức cuộc sống của họ bằng cách trò chuyện tự nhiên với máy tính. Tất cả những gì bạn cần làm là nói và máy sẽ trả lời.

Nhưng đối với nhiều người trong cộng đồng AI, có một sự vắng mặt đáng chú ý trong cuộc trò chuyện này: phản ứng của Google đối với nghiên cứu của riêng họ kiểm tra sự nguy hiểm của các hệ thống như vậy.

Vào tháng 12 năm 2020 và tháng 2 năm 2021, Google lần đầu tiên sa thải Timnit Gebru và sau đó là Margaret Mitchell, đồng lãnh đạo nhóm AI đạo đức của mình. Câu chuyện về sự ra đi của họ rất phức tạp nhưng được khơi mào bởi một bài báo mà cặp đồng tác giả (với các nhà nghiên cứu bên ngoài Google) kiểm tra các rủi ro liên quan đến các mô hình ngôn ngữ mà Google hiện đang đưa ra như là chìa khóa cho tương lai của nó. Như bài báo và các bài phê bình khác lưu ý, các hệ thống AI này dễ mắc phải một số lỗi, bao gồm việc tạo ra ngôn ngữ lạm dụng và phân biệt chủng tộc; mã hóa thành kiến ​​về chủng tộc và giới tính thông qua lời nói; và không có khả năng phân loại sự thật từ tiểu thuyết. Đối với nhiều người trong thế giới AI, việc Google sa thải Gebru và Mitchell lên tới kiểm duyệt công việc của họ.

Đối với một số người xem, như Pichai đã vạch ra cách các mô hình AI của Google sẽ luôn được thiết kế với trọng tâm là “công bằng, chính xác, an toàn và riêng tư”, sự chênh lệch giữa lời nói và hành động của công ty đã đặt ra câu hỏi về khả năng bảo vệ công nghệ này.

“Google vừa giới thiệu LaMDA một mô hình ngôn ngữ lớn mới tại I / O,” đã tweet Meredith Whittaker, một nhà nghiên cứu công bằng AI và đồng sáng lập của AI Now Institute. “Đây là một chỉ số cho thấy tầm quan trọng chiến lược của nó đối với Co. Các nhóm dành hàng tháng để chuẩn bị những thông báo này. Tl; dr. Kế hoạch này đã được thực hiện khi Google sa thải Timnit + cố gắng ngăn cản + nghiên cứu của cô ấy phê bình cách tiếp cận này. “

Gebru mình đã tweet, “Đây là cái được gọi là rửa sạch đạo đức” – đề cập đến xu hướng của ngành công nghệ cao nhằm thổi bay những lo ngại về đạo đức trong khi phớt lờ những phát hiện cản trở khả năng kiếm lợi nhuận của các công ty.

Đang nói chuyện với The VergeEmily Bender, một giáo sư tại Đại học Washington, đồng tác giả bài báo với Gebru và Mitchell, cho biết phần trình bày của Google không làm giảm bớt lo ngại của cô về khả năng của công ty trong việc làm cho công nghệ như vậy an toàn.

“Từ bài viết trên blog [discussing LaMDA] và với lịch sử, tôi không tin rằng Google thực sự đang cẩn thận về bất kỳ rủi ro nào mà chúng tôi đã nêu ra trong bài báo, ”Bender nói. “Đối với một điều, họ đã sa thải hai trong số các tác giả của bài báo đó, trên danh nghĩa là trên tờ báo. Nếu những vấn đề chúng tôi nêu ra là những vấn đề mà họ đang phải đối mặt, thì họ đã cố tình tước bỏ chuyên môn phù hợp cao đối với nhiệm vụ đó. “

Trong bài đăng trên blog của mình trên LaMDA, Google nhấn mạnh một số vấn đề này và nhấn mạnh rằng công việc của họ cần phát triển hơn nữa. Giám đốc nghiên cứu cấp cao Zoubin Ghahramani và VP quản lý sản phẩm Eli Collins viết: “Ngôn ngữ có thể là một trong những công cụ vĩ đại nhất của nhân loại, nhưng giống như tất cả các công cụ khác, nó có thể bị lạm dụng. “Những người mẫu được đào tạo về ngôn ngữ có thể tuyên truyền việc lạm dụng đó – ví dụ: bằng cách đưa vào nội bộ thành kiến, phản ánh lời nói căm thù hoặc sao chép thông tin sai lệch.”

Nhưng Bender nói rằng công ty đang giải quyết các vấn đề và cần phải rõ ràng hơn về cách giải quyết chúng. Ví dụ: cô ấy lưu ý rằng Google đề cập đến việc kiểm tra ngôn ngữ được sử dụng để đào tạo các mô hình như LaMDA nhưng không đưa ra bất kỳ chi tiết nào về quy trình này trông như thế nào. Bender nói: “Tôi rất muốn biết về quá trình kiểm tra (hoặc thiếu).

Chỉ sau bài thuyết trình, Google mới đưa ra bất kỳ tham chiếu nào đến đơn vị đạo đức AI của mình, trong một Cnet phỏng vấn với Jeff Dean, giám đốc AI của Google. Dean lưu ý rằng Google đã phải chịu một “cú đánh uy tín” thực sự từ các vụ nổ – điều gì đó The Verge đã báo cáo trước đây – nhưng công ty đã phải “vượt qua” những sự kiện này. Dean nói: “Chúng tôi không ngại những lời chỉ trích về sản phẩm của chính mình. Cnet. “Miễn là nó được thực hiện với lăng kính hướng tới sự thật và cách xử lý thích hợp đối với nhiều công việc mà chúng tôi đang làm trong không gian này, nhưng cũng để giải quyết một số vấn đề này.”

Tuy nhiên, đối với những người chỉ trích công ty, cuộc trò chuyện cần cởi mở hơn nhiều.

.

Content Protection by DMCA.com
GenVerge | Trang thông tin dành cho tín đồ công nghệ Việt Nam
Logo
Đăng ký
Liên hệ Admin để kích hoạt tài khoản Cộng Tác Viên
Quên mật khẩu