Nhập thông tin
  • Lỗi: Email không hợp lệ

Thông báo

Gửi bình luận thành công

Đóng
Thông báo

Gửi liên hệ thành công

Đóng
Đóng

Apple lại vắng mặt tại bàn tròn AI của 4 "ông lớn" công nghệ

  • Đinh Kim
(DS&PL) -

Các công ty công nghệ lớn đưa ra lời cam kết kiểm soát AI trong một nhóm nghiên cứu mới nhưng điều bất ngờ là Apple không tham gia sáng kiến này.

Mới đây, một nhóm nghiên cứu mang tên Frontier Model Forum đã được thành lập bởi OpenAI, Google, Microsoft và công ty an toàn trí tuệ nhân tạo – Anthropi. Theo đó, các công ty sẽ thiết lập các tiêu chuẩn phù hợp nhất cho ngành AI. Đáng chú ý, nhóm này lại không có sự tham gia của "ông trùm" Apple.

Apple lại vắng bóng trong sự kiện quan trọng của ngành công nghiệp.

Trước đó, Apple cũng vắng mặt tại Sáng kiến an toàn AI (AI Safety Initiative) riêng biệt được công bố bởi Nhà Trắng. Vì vậy, việc không tham gia nhóm mới này của “Nhà Táo” đặt ra câu hỏi lớn tới ngành công nghệ. Điều đáng nói, cả hai dự án đều hướng đến mục tiêu toàn ngành.

Phía Google đã có tuyên bố chính thức như sau: "Hôm nay, Anthropic, Google, Microsoft và OpenAI thông báo về việc thành lập Nhóm Frontier Model Forum. Đây là một nhóm nghiên cứu công nghệ mới, tập trung vào việc đảm bảo sự phát triển an toàn và có trách nhiệm của các mô hình AI xuyên biên giới.

Frontier Model Forum sẽ dựa trên chuyên môn kỹ thuật và vận hành của các công ty thành viên để mang lại lợi ích cho toàn bộ hệ sinh thái AI. Ví dụ như nâng cao các đánh giá và điểm chuẩn kỹ thuật, phát triển một thư viện giải pháp công cộng để hỗ trợ các tiêu chuẩn phù hợp nhất trong ngành và đặt ra tiêu chuẩn”.

Nhóm cho biết, định nghĩa về một hệ thống AI tiên tiến là "các mô hình học máy quy mô lớn vượt quá khả năng hiện có và có thể thực hiện nhiều nhiệm vụ khác nhau".

XEM THÊM: Camera trên bộ tứ iPhone 15 sẵn sàng “lột xác” với ống kính lai

Ông Brad Smith, phó chủ tịch của Microsoft cho biết: "Các công ty tạo ra công nghệ AI có trách nhiệm đảm bảo chúng an toàn, bảo mật và nằm trong tầm kiểm soát của con người. Sáng kiến này là một bước đi quan trọng trong lĩnh vực công nghệ để các công ty cùng nhau thúc đẩy AI một cách có trách nhiệm và giải quyết các thách thức, mang lại lợi ích tới toàn nhân loại".

Nhìn chung, nhóm này sẽ thiết lập các tiêu chuẩn phù hợp nhất để kiểm soát AI.

Mặt khác, trao đổi với Ars Technica, chuyên gia AI - Emily Bender của Đại học Washington lại cho rằng việc thành lập nhóm mới thực sự chỉ hướng tới "một nỗ lực để tránh quy định; để khẳng định khả năng tự điều chỉnh".

Một nhóm nghiên cứu mang tên Frontier Model Forum đã được thành lập bởi OpenAI, Google, Microsoft và công ty an toàn trí tuệ nhân tạo – Anthropi.

Ông Bender "rất hoài nghi" về khả năng tự điều chỉnh của các công ty AI và khẳng định quy định đó nên đến từ các chính phủ "đại diện cho người dân để hạn chế những quyền lực của các công ty này."

Trước đó, vào năm 2016, Google và Microsoft cũng là thành viên sáng lập của một tổ chức tương tự có tên The Partnership on AI. Đáng chú ý, Apple là một thành viên cho đến tận ngày nay.

Bình Minh

Tin nổi bật