LLM là định dạng ảnh mờ của web
CHATGPT LÀ ĐỊNH DẠNG ẢNH MỜ CỦA WEB/MẠNG INTERNET
Chatbot của OpenAI diễn đạt lại thông tin, trong khi Google cho ta các trích dẫn chính xác thông tin. Chúng ta thích cái nào hơn?
Tác giả: Ted Chiang
Nhung Nhung dịch.
Ngày 9 tháng 2 năm 2023
Note: Web dùng trong bài có thể hiểu nôm na là nội dung trên khắp cõi mạng Internet.
Vào năm 2013, các công nhân tại một công ty xây dựng của Đức để ý thấy một chuyện kỳ lạ với chiếc máy photocopy Xerox của mình: khi họ photo sơ đồ mặt bằng của một ngôi nhà, bản sao máy tạo ra lại khác với bản gốc ở một chi tiết nhỏ tinh vi nhưng đáng kể. Trong bản sơ đồ mặt bằng gốc, mỗi phòng trong số ba phòng của ngôi nhà đều có kèm một hình chữ nhật ghi rõ diện tích của nó: các phòng lần lượt là 14,13 và 21,11 và 17,42 mét vuông. Tuy nhiên, trong bản sao, cả ba phòng đều được dán nhãn diện tích rộng 14,13 mét vuông. Công ty đã liên hệ với nhà khoa học máy tính David Kriesel để điều tra kết quả photo tưởng chừng hết sức phi lý này. Họ cần một nhà khoa học máy tính, vì máy photocopy Xerox hiện đại không sử dụng quy trình xerographic vật lý phổ biến vào những năm 1960. Thay vào đó, nó quét tài liệu bằng kỹ thuật số, sau đó in file (file) hình ảnh kết quả. Thêm nữa, gần như mọi file hình ảnh kỹ thuật số nó quét ra đều được nén để tiết kiệm dung lượng, và chính ở đây, đáp án cho bí ẩn này bắt đầu tự hiển hiện.
Việc nén một file cần hai bước: đầu tiên là mã hóa, trong đó file được chuyển đổi thành định dạng tinh gọn hơn, và sau đó là giải mã, là đảo ngược quá trình ban đầu. Nếu file được khôi phục giống hệt với file gốc, thì quá trình nén này được gọi là không-mất-dữ-liệu (lossless): tức là không có thông tin nào bị tỉa bỏ. Ngược lại, nếu file được khôi phục chỉ là file gần đúng với file gốc, quá trình nén được mô tả là có-mất-dữ-liệu (lossy): tức một số thông tin đã bị tỉa bỏ và hiện không thể khôi phục được. Nén lossless thường được sử dụng cho các file văn bản và chương trình máy tính, bởi vì đây là lĩnh vực mà chỉ cần một ký tự không chính xác cũng có khả năng là thảm họa. Nén lossy thường được sử dụng cho ảnh, âm thanh và video trong các trường hợp không cần độ chính xác tuyệt đối. Thông thường, chúng ta hiếm khi để ý thấy một hình ảnh, bài hát, hoặc phim không được sao chép hoàn hảo. Mức độ thiếu trung thực chỉ trở nên rõ ràng khi các file bị nén rất chặt. Khi đó, chúng ta sẽ để ý thấy cái được gọi là các biến dạng nén/tạo tác nén (compression artifacts): là sự mờ nhoè của các file JPEG và MPEG nhỏ nhất, hoặc của file MP3 tốc độ bit thấp.
Máy photocopy Xerox sử dụng định dạng nén lossy được gọi là JBIG 2, được thiết kế cho hình ảnh đen trắng. Để tiết kiệm dung lượng, máy photocopy xác định các vùng trông giống nhau trong hình ảnh và lưu trữ một bản sao duy nhất cho tất cả các vùng đó; khi file được giải nén, nó sẽ sử dụng bản sao đó nhiều lần để tái tạo lại hình ảnh. Hóa ra, máy photocopy này đã đánh giá các nhãn ô vuông ghi diện tích của các phòng là giống nhau, nên nó chỉ cần lưu một trong số chúng—14,13—và nó đã sử dụng lại nhãn đó cho cả ba phòng khi in sơ đồ nhà. (con máy ngu see hihi)
Vấn đề không nằm ở chuyện máy photocopy Xerox sử dụng định dạng nén lossy thay vì lossless. Vấn đề là các máy photocopy đã làm giảm chất lượng hình ảnh một cách tinh vi, với các biến dạng nén mà ta khó nhận ra ngay lập tức. Nếu máy photocopy chỉ tạo ra các bản in mờ nhoè, mọi người sẽ biết rằng chúng không phải là bản sao chính xác của bản gốc. Vấn đề là ở chỗ máy photocopy này tạo ra những con số, chi tiết rõ nét, đọc được, nhưng không chính xác; nó làm cho các bản sao tưởng chừng chính xác, nhưng thực tế là sai. (Vào năm 2014, Xerox đã phát hành một bản vá để khắc phục lỗi này.)
Tôi nghĩ rằng bài học này từ máy photocopy Xerox đáng được cân nhắc hôm nay, khi chúng ta xem xét ChatGPT của OpenAI và các chương trình tương tự khác, mà các nhà nghiên cứu AI gọi là mô hình ngôn ngữ lớn (large language models). Nhìn qua thì giữa một máy photocopy và một mô hình ngôn ngữ lớn có thể không có tương đồng rõ rệt — nhưng hãy xem xét tình huống sau. Hãy tưởng tượng rằng bạn sắp mất quyền truy cập Internet vĩnh viễn. Để chuẩn bị, bạn dự định tạo một bản sao nén của tất cả văn bản trên Web để bạn có thể lưu trữ nó trong một máy chủ riêng. Thật không may, máy chủ riêng của bạn chỉ trữ được 1% dung lượng của toàn khối thông tin; bạn không thể sử dụng thuật toán nén lossless nếu bạn muốn nhét vừa hết mọi thứ. Thay vào đó, bạn viết một thuật toán lossy, rà quét các phần giống nhau về mặt thống kê trong toàn khối văn bản nội dung và lưu trữ chúng ở định dạng file chuyên biệt. Giả sử bạn có đủ năng lực máy tính vô hạn để thực hiện nhiệm vụ này, vì thế, thuật toán của bạn có thể xác định được hết các nội dung có sắc thái riêng giống nhau về mặt thống kê, và nhờ đó, bạn đạt được tỷ lệ nén mong muốn là một trăm trên một.
Giờ đây, chuyện mất khả năng truy cập Internet không còn quá khủng khiếp; bạn đã có tất cả thông tin trên Web được lưu trữ trên máy chủ của mình. Vấn đề duy nhất là, bởi vì văn bản đã được nén xuống rất nhiều, bạn không thể mò lại thông tin bằng cách tìm kiếm một câu trích dẫn chính xác; bạn sẽ không bao giờ có được kết quả khớp chính xác, vì nội dung được lưu trữ không phải theo đúng các từ. Để giải quyết vấn đề này, bạn tạo một giao diện tiếp nhận các truy vấn của bạn dưới dạng câu hỏi, và trả lời bằng các câu trả lời truyền đạt ý chính từ những thông tin bạn đã lưu trên máy chủ của mình.
Những gì tôi đã mô tả nghe rất giống ChatGPT hoặc hầu hết mọi mô hình ngôn ngữ lớn khác. Hãy coi ChatGPT như một jpeg mờ của tất cả văn bản trên Web. Nó giữ lại nhiều thông tin trên Web, giống như cách jpeg giữ lại nhiều thông tin của hình ảnh có độ phân giải cao hơn, nhưng nếu bạn đang tìm kiếm một chuỗi bit chính xác, bạn sẽ không tìm thấy nó; tất cả những gì bạn sẽ nhận được chỉ là một giá trị xấp xỉ, gần đúng. Tuy nhiên, vì giá trị xấp xỉ này được trình bày dưới dạng câu chữ đúng ngữ pháp mà ChatGPT rất giỏi tạo ra, nên người ta thường chấp nhận nó. Bạn vẫn là đang xem một ảnh jpeg mờ nhoè, nhưng nét mờ nhoè ấy hiện ra theo cách không làm cho toàn bộ bức ảnh trông kém sắc nét.
So sánh với cách nén lossy như vậy không chỉ giúp chúng ta hiểu về khả năng ChatGPT đóng gói và trình bày lại thông tin nó tìm thấy trên Web bằng cách dùng các câu chữ khác. Đó cũng là một cách để chúng ta hiểu được “những ảo ảnh”, tức là những câu trả lời hết sức vô nghĩa của nó cho các câu hỏi thực tế, mà các mô hình ngôn ngữ lớn như ChatGPT đều quá dễ mắc phải. Những ảo ảnh này là chính là các biến dạng nén, nhưng — giống như các nhãn diện tích không chính xác do máy photocopy Xerox tạo ra — chúng nghe có vẻ hợp lý đến mức để xác định được các lỗi này, đòi hỏi chúng ta phải so sánh với các bản gốc, trong trường hợp này có nghĩa là nội dung Web hoặc kiến thức của chúng ta về thế giới. Khi chúng ta nghĩ về chúng theo cách này, những ảo ảnh như vậy không có gì đáng ngạc nhiên; nếu một thuật toán nén được thiết kế để tái tạo lại một văn bản sau khi 99% văn bản gốc đã bị loại bỏ, thì chúng ta nên lường trước được rằng phần lớn những gì nó tạo ra sẽ hoàn toàn là bịa đặt.
Lối so sánh này thậm chí còn có ý nghĩa hơn khi chúng ta nhớ rằng một kỹ thuật phổ biến được sử dụng bởi các thuật toán nén lossy là phép nội suy—nghĩa là ước lượng ra phần bị mất bằng cách xem xét những phần ở hai bên của khoảng trống/lỗ hổng. Khi một chương trình hình ảnh đang hiển thị một bức ảnh và phải tái tạo lại một pixel bị mất trong quá trình nén, nó sẽ xem xét các pixel lân cận và tính toán giá trị trung bình. Đây là cách mà ChatGPT thực hiện khi nó được yêu cầu phải mô tả, chẳng hạn như việc một chiếc tất bị mất trong máy sấy theo văn phong của bản Tuyên ngôn Độc lập Mỹ: nó sẽ lấy hai điểm trong “không gian từ vựng” và tạo một văn bản đứng ở vị trí giữa chúng. (Nó tạo ra văn bản này: “Khi trong suốt tiến trình các sự kiện của đời người, một người cần phải chia tách quần áo của mình, để duy trì sự sạch sẽ và trật tự của chúng....) ChatGPT rất giỏi về khoản nội suy này, đến nỗi mọi người thấy nó thú vị: họ đã phát hiện ra một công cụ “làm mờ” cho các đoạn văn thay vì hình ảnh, và thích thú nghịch ngợm nó.
Do các mô hình ngôn ngữ lớn như Chat GPT thường được ca ngợi là thành tựu tiên tiến nhất của trí tuệ nhân tạo, nên mô tả chúng là các thuật toán nén lossy cho văn bản nghe có vẻ coi thường chúng —hoặc ít nhất là hạ thấp giá trị. Tôi thực sự nghĩ rằng cách nhìn này hữu ích khi nó giúp chỉnh đốn xu hướng nhân hóa các mô hình ngôn ngữ lớn, nhưng có một khía cạnh khác mà chúng ta cần xem xét khi dùng lối so sánh dạng nén. Kể từ năm 2006, một nhà nghiên cứu AI tên là Marcus Hutter đã trao phần thưởng bằng tiền mặt—được gọi là Giải Nén Kiến thức Nhân loại, hay Giải thưởng Hutter—cho bất kỳ ai có thể nén một ảnh chụp nhanh 1 gigabyte cụ thể của Wikipedia mà không làm mất dữ liệu (lossless), miễn sao nén nó nhỏ hơn file nén của người đoạt giải trước đó tạo được. Bạn có thể đã gặp phải các file được nén ở định dạng file zip. Định dạng zip giảm file nặng một gigabyte của Hutter xuống còn khoảng 300 megabyte; người đoạt giải gần đây nhất đã tìm cách giảm nó xuống còn 115 megabyte. Đây không chỉ là một bài tập bóp nén. Hutter tin rằng năng lực nén văn bản tối ưu hơn sẽ chính là con đường dẫn lối đến việc tạo ra trí tuệ nhân tạo đạt trình độ con người, một phần vì mức độ nén lớn nhất có thể đạt được là bằng cách hiểu văn bản đó.
Để hiểu được mối quan hệ giữa nén và hiểu, hãy tưởng tượng rằng bạn có một file văn bản chứa hàng triệu ví dụ về cộng, trừ, nhân và chia. Mặc dù bất kỳ thuật toán nén nào cũng có thể giảm kích thước của file này, nhưng cách để đạt được tỷ lệ nén lớn nhất có thể chính là rút ra các nguyên tắc số học rồi viết mã cho chương trình máy tính. Sử dụng máy tính, bạn hoàn toàn có thể tái tạo lại không chỉ hàng triệu ví dụ trong file mà còn bất kỳ ví dụ nào khác về số học mà bạn có thể gặp phải trong tương lai. Logic tương tự cũng áp dụng cho vấn đề nén một lát cắt của Wikipedia. Nếu một chương trình nén biết rằng lực bằng khối lượng nhân với gia tốc, thì nó có thể loại bỏ rất nhiều từ ngữ khi nén các trang về vật lý, vì nó sẽ có thể tái tạo lại chúng. Tương tự như vậy, chương trình càng biết nhiều về cung và cầu thì càng có thể loại bỏ nhiều từ ngữ hơn khi nén các trang về kinh tế học, v.v.
Các mô hình ngôn ngữ lớn xác định các phần giống nhau về thống kê trong văn bản. Bất kỳ phân tích nào về nội dung của Web sẽ tiết lộ rằng các cụm từ như “nguồn cung thấp” thường xuất hiện gần với các cụm từ như “giá tăng”. Một chatbot khi được hỏi về ảnh hưởng của thiếu hụt nguồn cung có thể kết hợp mối tương quan này và cho câu trả lời về việc tăng giá. Nếu một mô hình ngôn ngữ lớn đã tổng hợp một số lượng lớn các mối tương quan giữa các thuật ngữ kinh tế - nhiều đến mức nó có thể đưa ra những câu trả lời hợp lý cho nhiều câu hỏi khác nhau - liệu chúng ta có dám nói rằng nó thực sự thông hiểu lý thuyết kinh tế không? Các mô hình như ChatGPT không đủ điều kiện nhận Giải thưởng Hutter vì nhiều lý do, một trong số đó là chúng không tái tạo lại chính xác văn bản gốc—tức là chúng không thực hiện nén lossless.
Hãy quay trở lại ví dụ về số học. Nếu bạn yêu cầu GPT-3 (ChatGPT được xây dựng từ mô hình ngôn ngữ lớn này) cộng hoặc trừ một cặp số, nó hầu như luôn trả lời đúng khi các số chỉ có hai chữ số. Nhưng độ chính xác của nó giảm đi đáng kể với các số lớn hơn, giảm xuống còn 10% khi các số có năm chữ số. Hầu hết các câu trả lời đúng mà GPT-3 đưa ra đều không tìm thấy trên Web—chẳng hạn như không có nhiều trang Web chứa văn bản ghi “245 + 821”— vì vậy nó không tham gia vào quá trình ghi nhớ đơn giản. Tuy nhiên, mặc dù hấp thụ một lượng lớn thông tin, nó cũng không thể rút ra được các nguyên tắc của số học. Khi kiểm tra kỹ các câu trả lời sai của GPT-3, ta thấy rằng nó không có “nhớ 1” khi thực hiện phép tính số học. Web chắc chắn chứa các giải thích về phép “nhớ 1”, nhưng GPT-3 không thể kết hợp các giải thích đó. Phân tích thống kê của GPT-3 về các ví dụ về số học cho phép nó tạo ra một giá trị xấp xỉ giả tạo với thực tế, nhưng không hơn.
GPT-3 thất bại trong một môn học được dạy ở trường tiểu học như vậy, làm thế nào chúng ta có thể giải thích thực tế là đôi khi nó có vẻ làm tốt các bài luận ở cấp đại học? Mặc dù các mô hình ngôn ngữ lớn thường gây ảo ảnh/gây lú, nhưng khi chúng sáng suốt, chúng có vẻ như mình thực sự hiểu các chủ đề như lý thuyết kinh tế. Có lẽ số học là một trường hợp đặc biệt, một trường hợp mà các mô hình ngôn ngữ lớn không phù hợp/khớp được. Có lẽ nào, ngoài phép cộng và phép trừ ra, các phần giống nhau về thống kê trong văn bản ở những lĩnh vực khác thực sự tương ứng với kiến thức thực chất về thế giới thực?
Tôi nghĩ rằng có một lời giải thích đơn giản hơn. Hãy tưởng tượng mọi thứ sẽ như thế nào nếu ChatGPT là một thuật toán không mất dữ liệu - lossless. Nếu vậy, nó sẽ luôn trả lời các câu hỏi bằng cách cung cấp một trích dẫn nguyên văn từ một trang Web có liên quan. Chúng ta có thể coi phần mềm này chỉ là một cải tiến nhỏ so với công cụ tìm kiếm thông thường và sẽ ít ấn tượng hơn về nó. Năng lực của ChatGPT trong diễn đạt lại tài liệu từ Web thay vì trích dẫn từng từ khiến nó giống như một học sinh đang diễn đạt ý tưởng bằng lời của mình, thay vì chỉ đơn giản là nói lại những gì cô ấy đã đọc; nó tạo ra ảo tưởng rằng ChatGPT hiểu tài liệu. Đối với học sinh loài người, khả năng học thuộc lòng không phải là một dấu hiệu của việc học thực sự, thế nên việc ChatGPT không thể đưa ra các trích dẫn chính xác từ các trang Web chính là điều khiến chúng ta nghĩ rằng nó đã học được điều gì đó thật. (Chính là một trong những ý nhân hoá Chatgpt tác giả nhắc ở trên?)
Các mô hình ngôn ngữ lớn có thể có nhiều tác dụng. Khi coi chúng là những hình ảnh jpeg mờ, ta có thể đánh giá những việc nào chúng có thể phù hợp hoặc không. Hãy xem xét một vài kịch bản.
Các mô hình ngôn ngữ lớn có thể thay thế các công cụ tìm kiếm truyền thống không? Để chúng ta tin tưởng chúng, chúng ta sẽ cần biết chắc rằng chúng đã không được “cho ăn” thuyết âm mưu và thông tin tuyên truyền ở đầu vào — nghĩa là, chúng ta cần biết rằng JPEG này chụp đúng các phần của Web. Tuy nhiên, ngay cả khi có một mô hình ngôn ngữ lớn chỉ chứa thông tin mà chúng ta muốn, vẫn còn vấn đề về độ mờ nhoè. Có một kiểu độ mờ có thể chấp nhận được, đó là việc trình bày lại thông tin bằng các câu chữ khác. Kiểu còn lại là dạng mờ nhạt của bịa đặt hoàn toàn, điều mà chúng ta coi là không thể chấp nhận được khi muốn tìm kiếm thông tin sự thật. Không rõ là về mặt kỹ thuật, ta có thể giữ lại loại mờ có thể chấp nhận được và loại bỏ loại không thể chấp nhận được hay không, nhưng tôi hy vọng rằng chúng ta sẽ tìm ra giải pháp đó trong tương lai gần.
Ngay cả khi có thể hạn chế các mô hình ngôn ngữ lớn bịa đặt, chúng ta có nên sử dụng chúng để tạo nội dung Web không? Điều này chỉ có ý nghĩa nếu mục tiêu của chúng ta là đóng gói lại thông tin đã có sẵn trên Web. Một số công ty sinh ra để làm điều đó—chúng ta thường gọi họ là các nhà sản xuất nội dung. Có lẽ sự mờ nhoè của các mô hình ngôn ngữ lớn sẽ hữu ích cho họ, có thể là một cách để tránh vi phạm bản quyền. Tuy nhiên, nhìn chung, tôi muốn nói rằng bất cứ điều gì tốt cho các nhà sản xuất nội dung đều không tốt cho những người tìm kiếm thông tin. Sự gia tăng của kiểu đóng gói lại thông tin này là điều khiến chúng ta khó tìm thấy những gì mình muốn tìm kiếm trực tuyến hiện nay; càng xuất bản nhiều văn bản do các mô hình ngôn ngữ lớn tạo ra trên Web, thì Web càng trở thành một phiên bản mờ nhoè hơn của chính nó.
Có rất ít thông tin về GPT-4, gã kế nhiệm sắp tới cho ChatGPT của OpenAI. Nhưng tôi sẽ đưa ra một dự đoán: khi tập hợp một lượng lớn văn bản được sử dụng để đào tạo GPT-4, nhân sự ở OpenAI sẽ cố gắng hết sức để loại trừ tài liệu do chính ChatGPT hoặc bất kỳ mô hình ngôn ngữ lớn nào khác tạo ra. Nếu dự đoán này xảy ra thật, nó sẽ vô tình xác nhận rằng cách so sánh các mô hình ngôn ngữ lớn với nén lossy là hữu ích. Việc lưu đi lưu lại một jpeg nhiều lần sẽ tạo ra nhiều biến dạng nén hơn, bởi vì mỗi lần như vậy sẽ có nhiều thông tin bị mất hơn. Nó cũng như việc liên tục photo các bản sao của các bản sao ngày xưa. Chất lượng hình ảnh chỉ trở nên tồi tệ hơn.
Thật vậy, để đánh giá chất lượng của một mô hình ngôn ngữ lớn, tiêu chí hữu ích có thể là ở chỗ một công ty có sẵn lòng sử dụng văn bản mà mô hình này tạo ra làm tài liệu đào tạo cho một mô hình mới hay không. Nếu đầu ra của ChatGPT không đủ tốt cho GPT-4, chúng ta có thể coi đó là dấu hiệu cho thấy nó cũng không đủ chất lượng cho chúng ta dùng. Ngược lại, nếu một mô hình bắt đầu tạo văn bản tốt đến mức nó có thể được sử dụng để đào tạo các mô hình mới, thì điều đó sẽ giúp chúng ta tin tưởng vào chất lượng của văn bản đó. (Tôi đồ rằng một kết quả như vậy sẽ đòi hỏi một bước đột phá lớn trong các kỹ thuật được sử dụng để xây dựng các mô hình này.) Nếu và khi chúng ta bắt đầu thấy các mô hình tạo ra đầu ra tốt như đầu vào của chúng, thì cách so sánh nó với nén lossy sẽ không còn được áp dụng.
Liệu các mô hình ngôn ngữ lớn có thể giúp con người trong mảng viết lách sáng tạo không? Để trả lời câu hỏi đó, chúng ta cần phải cụ thể về ý nghĩa của câu hỏi đó. Có một thể loại nghệ thuật được gọi là nghệ thuật Xerox, hay nghệ thuật sao chụp, trong đó các nghệ sĩ sử dụng các đặc tính riêng biệt của máy photocopy làm công cụ sáng tạo. Hiển nhiên dòng sáng tạo kiểu này có thể xảy ra với ChatGPT, vì vậy, theo nghĩa đó, câu trả lời là có. Nhưng tôi không nghĩ rằng có ai lại khẳng định rằng máy photocopy đã trở thành một công cụ thiết yếu trong việc sáng tạo nghệ thuật; đại đa số các nghệ sĩ không sử dụng chúng trong quá trình sáng tạo của họ, và không ai tranh luận rằng họ đang tự đặt mình vào thế bất lợi khi lựa chọn như vậy.
Vì thế, hãy giả sử rằng chúng ta không nói về một thể loại viết văn mới kiểu như nghệ thuật Xerox. Thì, liệu văn bản do các mô hình ngôn ngữ lớn tạo ra có phải là điểm khởi đầu hữu ích để người viết xây dựng trên đó khi bắt tay viết một cái gì đó nguyên bản, sáng tạo, cho dù đó là văn chương hư cấu hay phi hư cấu? Nếu để một mô hình ngôn ngữ lớn phụ trách phần bản soạn sẵn, liệu nó có giúp người viết tập trung công sức của họ vào những phần thực sự sáng tạo không?
Rõ ràng, không ai có thể nói thay cho tất cả các nhà văn, nhưng hãy để tôi đưa ra lập luận rằng, bắt đầu với một bản copy mờ của tác phẩm gốc không phải là một cách hay để tạo ra tác phẩm gốc. Nếu bạn là một nhà văn, bạn sẽ viết rất nhiều tác phẩm không nguyên gốc trước khi viết một cái gì đó nguyên bản. Và thời gian và công sức dành cho tác phẩm không nguyên bản đó không hề bị lãng phí; ngược lại, tôi cho rằng đó chính xác là thứ cho phép bạn cuối cùng tạo ra thứ gì đó độc đáo. Hàng giờ ngồi chọn từ ngữ thích hợp và sắp xếp lại các câu để chúng nối tiếp nhau mượt mà hơn sẽ dạy cho bạn cách truyền đạt ý nghĩa bằng văn xuôi. Yêu cầu học sinh sinh viên viết luận không chỉ là một cách để kiểm tra khả năng nắm bắt tài liệu của họ; nó mang lại cho họ kinh nghiệm trong việc trình bày mạch lạc những suy nghĩ của họ. Nếu học sinh sinh viên không bao giờ phải viết những bài luận mà tất cả chúng ta đã từng đọc trước đây, thì họ sẽ không bao giờ đạt được những kỹ năng cần thiết để viết một thứ mà chúng ta chưa bao giờ đọc thấy.
Và không phải là khi đã không còn là sinh viên, bạn có thể ung dung sử dụng mẫu văn bản mà mô hình ngôn ngữ lớn cung cấp. Nỗ lực thể hiện suy nghĩ của bạn không biến mất sau khi bạn tốt nghiệp—nó có thể vẫn tiếp diễn mỗi khi bạn bắt đầu phác thảo một tác phẩm mới. Đôi khi chỉ trong quá trình viết, bạn mới khám phá ra những ý tưởng ban đầu của mình. Một số người có thể nói rằng đầu ra của các mô hình ngôn ngữ lớn trông không khác mấy so với bản thảo đầu tiên của một nhà văn, nhưng, một lần nữa, tôi nghĩ đây là một sự giống nhau ở bề ngoài. Bản nháp đầu tiên của bạn không phải là một ý tưởng thiếu độc đáo được thể hiện rõ ràng; mà đó là một ý tưởng độc đáo bị diễn đạt còn lập cập, và nó đi kèm với cảm giác không hài lòng bức bối trong bạn, với nhận thức của bạn về khoảng cách giữa những gì nó nói ra và những gì bạn muốn nó nói được ra. Đó là kim chỉ nam hướng dẫn bạn trong quá trình viết lại, và đó là một trong những điều bị mất đi khi bạn bắt đầu với văn bản do A.I. tạo ra.
Việc viết lách không có gì kỳ diệu hay thần bí, nhưng nó không chỉ đơn giản là đặt một tài liệu hiện có lên một máy photocopy không đáng tin cậy và nhấn nút In. Có thể trong tương lai, chúng ta sẽ xây dựng một AI có khả năng viết văn hay dựa trên kinh nghiệm của chính nó về thế giới. Ngày mà chúng ta đạt được điều đó quả thực sẽ là một dấu mốc — nhưng ngày đó nằm ngoài tầm dự đoán của chúng ta. Trong khi chờ đợi, chúng ta nên đặt câu hỏi, Có ích lợi gì khi ta có dụng cụ biết diễn đạt lại Web? Nếu chúng ta mất quyền truy cập Internet vĩnh viễn và phải lưu trữ một bản sao trên một máy chủ riêng với không gian hạn chế, thì một mô hình ngôn ngữ lớn như ChatGPT có thể là một giải pháp tốt, giả sử rằng nó có thể được ngăn chặn việc bịa đặt nội dung. Nhưng chúng ta đâu có mất quyền truy cập Internet. Vì vậy, sao phải dùng một chiếc JPEG mờ, trong khi bạn vẫn còn ảnh gốc?
Nguồn:: Nhung Nhung - BÀI VIẾT HAY HO NHỨT VỀ CHATGPT tôi từng… | Facebook
ChatGPT Is a Blurry JPEG of the Web | The New Yorker