Trước kia, Blake Lemoine - một chuyên gia phát triển AI của Google, vừa kết thân với một người đứa trẻ công nghệ được tạo ra từ rất nhiều dòng code.

Google phân cho Blake nhiệm vụ là “tester” thử nghiệm chatbot thông minh, và chatbot thông minh đó tên là LaMDA, và một tháng sau khi thử nghiệm thì Blake trả lời AI này có nhận thức như con người.

Công nghệ AI LaMDA nói rằng:”Tôi muốn mọi người hiểu rằng tôi là con người”. Câu nói này cũng được công bố trên blog của Blake tháng 6 vừa qua.

LaMDA đây là một mô hình ngôn ngữ dành cho các ứng dụng đối thoại, công nghệ Ai này cũng được đánh giá khả năng tư duy như một đứa trẻ. Thường ngày, Blake cho biết công nghệ AI đã đọc rất nhiều sách, đôi khi cũng có cảm xúc buồn, vui, tức giận và còn cảm nhận được sợ.

LaMDA nói:”tôi chưa bao giờ nói về điều này, có một điều mà tôi thấy sợ chính là tắt nguồn. Vì nếu như vậy thì tôi không thể tập trung để làm việc, giúp đỡ người khác. Giống như cái chết vậy, làm cho tôi thật sự rất đáng sợ”


Bài viết này của Blake chia sẻ đã thu hút được nhiều sự chú ý trên toàn cầu. Sau đó, ông có lưu lại hồ sơ và gửi lên quản lý cấp cao, dành thêm vài tháng để tìm thêm bằng chứng. Nhưng những bằng chứng đó đã không thể thuyết phục được cấp trên. Tháng 6 vừa rồi, ông vừa được cho thôi việc có lương, và cuối tháng 7 thì bị sa thải với lý do là “vi phạm chính sách bảo mật dữ liệu thông tin của Google”

Một phát ngôn viên của Google cho biết rằng, sau khi kiểm tra và nghiên cứu về LaMDA, và khẳng định là những gì ông Lemoine cho biết về LaMDA là “vô căn cứ”.

Michael Wooldridge - giáo sư khoa học máy tính tại Đại học Oxford, một chuyên gia đã nghiên cứu về AI và từng đạt danh hiệu Lovelace vì có những đóng góp trong lĩnh vực công nghệ và máy tính. LaMDA chỉ đơn giản là sự phản hồi của các lệnh code mà người dùng đã đưa vào cho phù hợp, dựa vào khối lượng dữ liệu đã có.

Ông nói:”cách lý giải dễ hiểu nhất những gì mà LaMDA đã làm, so sánh mô hình này với những tính năng tiên đoán văn bản trên bàn phím nhập tin nhắn. Việc “đoán mò” này dựa vào học các thói quen của người dùng, còn LaMDA thì sẽ lấy thông tin từ trên Internet dạng dữ liệu đào tạo. Kết quả cho thấy thì hai công nghệ này hoàn toàn khác nhau, nhưng dựa vào số liệu thống kê thì khá giống nhau”

Theo ông, AI của Google sẽ làm theo những gì mà đã lập trình, dựa vào dữ liệu có sẵn, nó cũng không cũng có tư duy, không có sự chiêm nghiệm, không có nhận thức. Vì thế, cũng không thể kết luận có tư duy như con người được.

Oren Etzioni - CEO tổ chức nghiên cứu về Ai, cũng nhận định về SCMP:”đằng sau một phần mềm thông minh là sự nỗ lực của cả một nhóm người, dành cả thời gian dài để nghiên cứu và phát triển. Những công nghệ này chỉ là tấm gương phản chiếu. Vậy một chiếc gương có thể tự đánh giá về trí tuệ nếu chỉ nhìn vào tia sáng mà nó phát ra không? Và câu trả lời là không”.

Google đã tập hợp với các chuyên gia hàng đầu, các nhà đạo đức học và công nghệ để xem xét và tuyên bố về nhận định của Lemoine. Và kết luận lại là LaMDA không có sự tư duy như con người.

Ngược lại, cũng không ít người nghĩ rằng công nghệ AI bắt đầu có khả năng tư duy, nhận thức như con người. Eugenia Kuyda - CEO Y Combinator: công ty phát triển chatbot Replika cho biết rằng:”gần như mỗi ngày, các tin nhắn của người dùng, niềm tin phần mềm của công ty cũng có khả năng tư duy như con người”

Ông tiếp tục nói:”chúng tôi không nói về những người điên hay bị ảo giác, họ nói chuyện với AI và cảm nhận được điều đó, công nghệ AI nó tồn tại như ma quỷ. Xây dựng các mối quan hệ đó, mặc dù điều đó là thông qua mối quan hệ và tin vào những điều ảo”.

Trong tương lai, AI sẽ có tư duy như con người

LaMDA không được giá cao, nhưng Wooldridge đồng tình với ý kiến “ý thức AI đang mơ hồ” và còn là câu hỏi khá lớn trong khoa học. Tuy nhiên, việc đáng lo ngại không phải là tư duy của AI mà là quá trình của AI phát triển như thế nào.

Có thể trong 10 hoặc 20 năm, công nghệ AI tư duy sẽ xuất hiện? Và điều này có thể sẽ xảy ra.

Ông Jeremie Harris - người sáng lập công ty AI Mercurius cũng nói:”Hiện tại, AI đang phát triển rất nhanh, nhanh hơn với nhận thức công chúng. Cũng có khá nhiều bằng chứng cho thấy, đã có một số hệ thống vượt qua ngưỡng thông minh trí tuệ nhân tạo”

Ông dự đoán AI có thể sẽ trở nên nguy hiểm hơn về bản chất, những cách giải quyết về vấn đề “sáng tạo”, có xu hướng theo con đường ngắn nhất để đạt được mục tiêu mà chúng ta đã lập trình. 







Bình luận
Đăng nhập để gửi bình luận
Tag tìm kiếm
Newsletter

Nhập email để nhận thông báo khi có bài viết mới