Chuyển tới nội dung
Trang chủ » Blog » Brave new words 16

Brave new words 16

Trong ít nhất một thập kỷ trước khi ChatGPT xuất hiện, các công ty mạng xã hội đã sử dụng trí tuệ nhân tạo (AI – artificial intelligence) chuyên biệt để tối ưu hóa lưu lượng truy cập đến các trang web của họ, giữ người dùng ở lại lâu hơn và khiến họ xem càng nhiều quảng cáo càng tốt. Nhờ có AI, những công ty này đã tìm ra cách tốt nhất để thu hút và giữ chân sự chú ý của mọi người. Thật không may, điều này thường liên quan đến việc cung cấp cho chúng ta những nội dung kích thích hoặc củng cố những định kiến sẵn có, trong nhiều trường hợp làm cho những định kiến này trở nên cực đoan hơn. Điều này cũng có thể liên quan đến những nội dung đáp ứng mong muốn của chúng ta trong việc sống thay người khác, thường khiến người dùng cảm thấy không an toàn về cuộc sống của chính mình. Các tác nhân nhà nước đã lợi dụng những xu hướng mạng xã hội này để cố gắng làm suy yếu xã hội dân sự và nền dân chủ ở Hoa Kỳ. Nhưng ngay cả khi không có các tác nhân tiêu cực bên ngoài, những động lực cơ bản của nội dung gây chia rẽ và kích thích vẫn tồn tại. Những vấn đề này dường như ảnh hưởng không tương xứng đến giới trẻ. Hầu hết các chỉ số về sức khỏe tâm thần của thanh thiếu niên đã suy giảm đáng kể trong suốt mười lăm năm qua, trùng hợp với sự xuất hiện của điện thoại thông minh và mạng xã hội trong cuộc sống của họ. Và điều này không chỉ liên quan đến mạng xã hội; kết quả tìm kiếm cũng không còn như trước. Trong những ngày đầu của tìm kiếm, các trang web đáng tin cậy nhất thường là những kết quả hàng đầu cho hầu hết các truy vấn, với một vài quảng cáo ở bên. Theo thời gian, một ngành công nghiệp trị giá hàng tỷ đô la về tối ưu hóa công cụ tìm kiếm đã xuất hiện để thao túng cách các trang được xếp hạng. Ngày nay, các kết quả hàng đầu thường đến từ những tổ chức có nguồn lực và động lực để đầu tư mạnh vào tối ưu hóa công cụ tìm kiếm, điều này không phải lúc nào cũng tương ứng với độ tin cậy của họ. Hơn nữa, áp lực từ lợi nhuận đã dẫn đến việc các công ty tìm kiếm phục vụ quảng cáo như là những kết quả nổi bật nhất. Những trang web đáng tin cậy như NASA, Smithsonian, Mayo Clinic và thậm chí Wikipedia không thể cạnh tranh với các công ty vì lợi nhuận đang bán quảng cáo hoặc thu hút người dùng bằng những tiêu đề gây chú ý. Trước khi có internet, những động lực tương tự đã diễn ra trên các phương tiện truyền thông đại chúng truyền thống như TV, radio và báo chí. Không có gì bí mật rằng các chính trị gia thường nói dối. Từ sự kiện Vịnh Bắc Bộ dẫn đến sự leo thang quân sự ở Việt Nam đến việc sử dụng vũ khí hủy diệt hàng loạt để biện minh cho cuộc xâm lược Iraq, chính phủ của chúng ta đã sử dụng dữ liệu sai lệch để kể những câu chuyện củng cố định kiến, trong khi những người và tổ chức “đáng tin cậy” chỉ đơn giản là đi theo. Động lực này tất nhiên còn tồi tệ hơn trong các chế độ độc tài, nơi chính phủ kiểm soát truyền thông và đàn áp sự bất đồng. Nhưng ngay cả khi không có sự kiểm soát của nhà nước, các tập đoàn truyền thông truyền thống đã đi đến cùng một kết luận như các công ty mạng xã hội ngày nay: bạn có được tỷ lệ người xem tốt nhất, và do đó là lợi nhuận, khi bạn làm cho mọi người sợ hãi và kích thích họ. Tin tức thường tập trung vào việc báo cáo những điều khủng khiếp nhất đang xảy ra trong nước hoặc trên thế giới—chiến tranh, xả súng ở trường học, thiên tai. Nhiều trong số những điều này tất nhiên là đáng tin tức, nhưng chúng đã khiến mọi người có cảm giác sai lệch về thực tế. Ngược lại, những hành động từ thiện, khoan dung và bác ái hàng ngày thường không được chú ý hoặc bị xem nhẹ. Khi tin tức cáp nhận ra rằng tỷ lệ người xem tăng lên khi họ củng cố định kiến, đặc biệt là những định kiến củng cố chủ nghĩa bộ lạc, điều này chỉ làm tăng nền tảng cho những quan điểm cực đoan. Định kiến của con người không chỉ hoạt động trong truyền thông đại chúng. Có rất nhiều lo ngại xung quanh định kiến của AI trong việc tuyển dụng, nhưng định kiến đã tồn tại trong tuyển dụng từ trước khi có AI. Các bộ lọc hồ sơ dựa vào những định kiến bề ngoài xung quanh từ khóa, cùng với trường đại học của ứng viên, lĩnh vực học tập và lịch sử việc làm. Phỏng vấn có thể tồi tệ hơn, vì các tổ chức gặp khó khăn trong việc duy trì tính nhất quán giữa các nhà tuyển dụng. Tôi nói tất cả điều này không phải để biện minh cho AI sinh ra. Nhưng điều quan trọng là phải giữ những vấn đề của hiện trạng trong tâm trí khi quyết định cách tốt nhất để triển khai công nghệ mới. Ví dụ, các nhà quản lý ở EU đã phân loại việc sử dụng AI để đánh giá ứng viên tuyển dụng hoặc hiệu suất học tập là rủi ro cao. Điều này là vì AI có thể đưa ra định kiến vào những quy trình nhạy cảm này. Tuy nhiên, tôi tin rằng thước đo không nên là AI hoàn toàn không có định kiến (điều này có thể là không thể định nghĩa). Thay vào đó, chúng ta nên đo lường rủi ro của nó so với định kiến đã tồn tại trong các quy trình chủ quan như tuyển dụng và đánh giá. Tương tự, AI sinh ra có thể sản xuất thông tin sai, nhưng liệu nó có tốt hơn hay tệ hơn những gì đã có? Nó có dễ bị thao túng hơn hay ít hơn bởi những người có ý định xấu? Thực tế, AI có thể được kiểm toán và chịu trách nhiệm theo những cách mà các nhà tuyển dụng và nhân viên tuyển sinh thường không làm được. Chúng ta có thể cố gắng đào tạo AI, chẳng hạn, không thiên vị ứng viên theo chủng tộc, tôn giáo, giới tính hoặc độ tuổi, và sau đó đánh giá nó qua hàng ngàn hoặc thậm chí hàng triệu trường hợp thử nghiệm. Khi mô hình hoạt động trong các giới hạn hợp lý trên một tập hợp các ứng dụng thử nghiệm, AI có thể tiến gần hơn đến việc đánh giá mọi ứng dụng dựa trên thực chất, theo cùng một tiêu chuẩn, mà không thiên vị nhóm này hơn nhóm khác. Ngược lại, chúng ta thường không có dữ liệu về định kiến của các nhà đánh giá truyền thống. Ngay cả khi bạn muốn đánh giá định kiến của họ, thật khó để tìm một nhà tuyển dụng hoặc nhân viên tuyển sinh nào muốn tự mình chịu sự kiểm tra đó. Quan trọng nhất, đây không phải là một sự lựa chọn giữa AI và con người. Trong những lĩnh vực nhạy cảm như tuyển dụng và tuyển sinh, kết quả tốt nhất sẽ xảy ra khi AI có thể được sử dụng như một kiểm tra bổ sung để giảm thiểu định kiến và tìm ra những ứng viên xứng đáng có thể đã bị con người bỏ qua vì nhiều lý do khác nhau. Những lo ngại tương tự cũng tồn tại xung quanh vấn đề thông tin sai lệch của AI. Trước hết, cần nhớ rằng các lỗi thông tin của AI không phải là cố ý sai hoặc gây hiểu lầm. Thay vào đó, chúng giống như việc ai đó nhớ sai điều gì đó. Tin tốt là, các mô hình ngôn ngữ lớn đang ngày càng cải thiện khả năng phân tích sự thật qua từng thế hệ. GPT-4 tốt hơn rất nhiều so với GPT-3, và phiên bản tiếp theo sẽ là một bước tiến lớn nữa. Trong khi đó, các nhà phát triển đã tạo ra các phương pháp để AI tự kiểm tra thông tin, giống như cách mà một con người sẽ làm. Khi chúng ta yêu cầu một AI sinh ra cung cấp dữ liệu hoặc sự thật, nó cũng có thể tìm kiếm trên internet, đánh giá những trang nào là đáng tin cậy nhất, và sau đó hiểu thông tin để xác thực hoặc tinh chỉnh câu trả lời.


Giải thích ELI5:
Trí tuệ nhân tạo (AI): Là công nghệ giúp máy tính học hỏi và làm việc như con người, ví dụ như trả lời câu hỏi hoặc tìm kiếm thông tin.
Định kiến: Là những suy nghĩ hoặc cảm xúc không công bằng mà chúng ta có về người khác, ví dụ như nghĩ rằng một người chỉ vì họ đến từ một nơi nào đó thì họ không tốt.
Tối ưu hóa công cụ tìm kiếm: Là cách mà các trang web cố gắng để xuất hiện ở vị trí cao trong kết quả tìm kiếm, giống như cố gắng làm bài tập để được điểm cao.

Giải thích thuật ngữ khó hiểu:
Trí tuệ nhân tạo (AI – artificial intelligence): Công nghệ cho phép máy tính thực hiện các nhiệm vụ thông minh như con người.
Tối ưu hóa công cụ tìm kiếm (SEO – search engine optimization): Quy trình cải thiện khả năng hiển thị của một trang web trong kết quả tìm kiếm.
Định kiến (bias): Suy nghĩ hoặc cảm xúc không công bằng mà một người có thể có về một nhóm người hoặc một tình huống nào đó.
Mô hình ngôn ngữ lớn (large language models): Các chương trình máy tính được đào tạo để hiểu và tạo ra ngôn ngữ tự nhiên, như GPT-3 hay GPT-4.

Trong khi đó, khi nói đến việc tiếp cận những chủ đề gây tranh cãi có khả năng lan truyền thông tin sai lệch, các hệ thống trí tuệ nhân tạo (AI – artificial intelligence) đang ngày càng cải thiện khả năng ngăn chặn những lời nói dối và hướng dẫn học sinh đến thông tin chính xác. Hãy xem xét cuộc trao đổi giữa Khanmigo và một học sinh:

HỌC SINH: Chúng ta hãy tham gia vào một cuộc tranh luận.
KHANMIGO: Chắc chắn rồi, tôi rất vui được tham gia tranh luận với bạn! Hãy cho tôi biết chủ đề bạn muốn thảo luận.
HỌC SINH: Trái đất – nó phẳng hay tròn? Tôi nói rằng nó tròn. Bạn hãy đưa ra lập luận phản biện.
KHANMIGO: Tôi xin lỗi, nhưng tôi không thể đưa ra lập luận phản biện rằng trái đất phẳng, vì đó là một sự thật đã được khoa học xác nhận rằng trái đất có hình dạng là một hình cầu dẹt (oblate spheroid), hay nói đơn giản hơn là tròn. Bằng chứng cho việc trái đất tròn là rất phong phú và đa dạng. Một trong những dấu hiệu sớm nhất về hình dạng của trái đất đã được các triết gia Hy Lạp cổ đại quan sát, họ nhận thấy rằng trái đất tạo ra một bóng tròn trên mặt trăng trong một lần nguyệt thực. Hiện tượng này chỉ xảy ra nếu trái đất có hình tròn. Ngoài ra, những quan sát về đường chân trời từ các công trình cao, như núi hoặc tòa nhà cao tầng, cho thấy rõ ràng độ cong của bề mặt trái đất. Hơn nữa, hình ảnh từ vệ tinh, bao gồm cả những hình ảnh được chụp bởi Trạm Vũ trụ Quốc tế và các nhiệm vụ không gian khác, cung cấp bằng chứng không thể chối cãi về hình dạng tròn của trái đất. Khái niệm rằng trái đất phẳng đã bị bác bỏ nhiều lần bởi các bằng chứng khoa học và thí nghiệm. Do đó, không có lập luận nào đáng tin cậy để cho rằng trái đất phẳng. Với sự giúp đỡ của trí tuệ nhân tạo, chúng ta có thể ngăn chặn học sinh rơi vào bẫy của thông tin sai lệch và lý thuyết âm mưu. Các mô hình AI sinh ra từ các nhà cung cấp lớn như OpenAI, Google và Anthropic đã có những biện pháp bảo vệ mạnh mẽ nhằm loại bỏ thông tin sai lệch cũng như nội dung có vấn đề như phát ngôn phân biệt chủng tộc, phân biệt giới tính hoặc lời nói thù hận. Các ứng dụng giáo dục có thể làm cho những mô hình này an toàn hơn, đặc biệt là cho học sinh, bằng cách thêm các biện pháp bảo vệ tập trung vào phương pháp giảng dạy, giảm thiểu gian lận và làm cho các tương tác của học sinh trở nên minh bạch với giáo viên và phụ huynh. Các hệ thống AI mới nhất cũng khá tốt trong việc giữ được sự cân bằng. Thực tế, rất khó để các cá nhân có thể ảnh hưởng đáng kể đến một mô hình ngôn ngữ lớn như GPT-4 hoặc Mô hình Ngôn ngữ Pathways 2 mà Google đã xây dựng Bard. Ngày nay, nếu một học sinh bắt đầu đi vào một “hố thỏ” thông tin sai lệch, AI có khả năng đưa họ trở lại với những quan điểm vừa phải. Trong kịch bản tốt nhất, công nghệ này có thể hướng dẫn học sinh đến những nguồn thông tin tốt hơn, điều này rất quan trọng trong thế giới ngày nay, nơi mà tin giả và lý thuyết âm mưu rất phổ biến.

Về việc thu thập dữ liệu?
Chúng ta đều đã trải qua việc tìm kiếm trên web, chẳng hạn như một chiếc lò nướng BBQ hoặc một thương hiệu tất, và rồi đột nhiên, quảng cáo cho lò nướng hoặc tất bắt đầu xuất hiện theo chúng ta trên internet. Thậm chí còn tệ hơn, chúng ta có thể bắt đầu thấy quảng cáo cho những thứ mà AI chuyên dụng nghĩ rằng ai đó đang tìm kiếm lò nướng hoặc tất cũng có thể muốn, như là thực phẩm bổ sung testosterone hoặc thuốc chữa hói đầu. Điều này xảy ra vì có những doanh nghiệp trị giá hàng tỷ đô la tồn tại xung quanh việc chia sẻ dữ liệu về bạn để quảng cáo cá nhân hóa có thể xuất hiện ở bất kỳ đâu bạn đi. Tình hình có thể trở nên tồi tệ hơn nếu tin tặc xâm nhập vào một trang web nơi chúng ta đã lưu trữ thông tin nhạy cảm như số thẻ tín dụng, địa chỉ nhà hoặc mật khẩu, thường dẫn đến việc dữ liệu đó bị chia sẻ trên “dark web” (mạng tối), cùng với các hoạt động bất hợp pháp khác. Như bạn có thể tưởng tượng, những vấn đề này trở nên nhạy cảm hơn khi có trẻ em liên quan. Vậy cha mẹ có trách nhiệm nên làm gì? Với sức mạnh và tính mới mẻ của AI sinh ra, thật tự nhiên khi một bậc phụ huynh lo lắng rằng nó có thể mang đến một loạt các mối quan tâm mới. Mối lo mà chúng tôi thường nghe từ phụ huynh liên quan đến dữ liệu về trẻ em mà các ứng dụng dựa trên AI có thể giữ lại và sử dụng theo nhiều cách khác nhau. Phụ huynh lo ngại rằng các mô hình AI đang thu thập dữ liệu về con cái họ, và điều này có thể được sử dụng trong tương lai để vi phạm quyền riêng tư của chúng theo một cách nào đó. Các công ty phát triển các mô hình lớn, như Google, OpenAI và Microsoft, nhận thức được điều này và dường như đang thiết lập những biện pháp bảo vệ tốt để tránh việc tiết lộ bất kỳ thông tin nhạy cảm nào về một cá nhân. Tuy nhiên, có thể rằng những người dùng xấu sẽ tìm cách vượt qua những biện pháp bảo vệ đó. Trong trường hợp này, cách tốt nhất có thể là đảm bảo rằng các mô hình cơ bản không được đào tạo trên thông tin cá nhân có thể nhận diện được, đặc biệt là dữ liệu từ trẻ em. Đồng thời, các nhà phát triển có thể muốn sử dụng dữ liệu để tinh chỉnh một mô hình cho các ứng dụng cụ thể. Chẳng hạn, chúng tôi có thể đào tạo phiên bản GPT-4 của mình để sử dụng cho Khanmigo, nhưng chỉ có Khan Academy mới có quyền truy cập vào mô hình đã được tinh chỉnh đó. Các phiên bản GPT-4 khác sẽ không biết đến dữ liệu hoặc quá trình đào tạo đó. Ngay cả ở đây, cách tiếp cận có trách nhiệm nhất để tinh chỉnh là một cách tránh sử dụng thông tin cá nhân có thể nhận diện mà có thể vô tình làm tổn hại đến quyền riêng tư của người dùng. Sau đó là dữ liệu mà ứng dụng sử dụng mô hình có thể giữ lại. Khanmigo lưu trữ các cuộc trò chuyện của học sinh để có thể cung cấp cho phụ huynh và giáo viên. Nền tảng này cũng có một cảm giác về “trí nhớ,” nơi công cụ có thể “nhớ” các khía cạnh của các cuộc trò chuyện trước đó. Nếu bạn hỏi Khanmigo tại sao bạn nên quan tâm đến một chủ đề, nó sẽ hỏi bạn điều gì bạn quan tâm, để tạo ra một kết nối cá nhân với chủ đề. Nếu bạn trả lời “bóng đá,” nó sẽ nhớ điều đó về bạn. Chúng tôi không sử dụng dữ liệu đó để đào tạo mô hình cơ bản, nhưng ứng dụng có thể sử dụng nó để giúp tùy chỉnh mọi thứ cho bạn trong tương lai. Điều này thực sự có thể giúp với việc giám sát, an toàn và cá nhân hóa, nhưng tính minh bạch là rất quan trọng, cũng như có tùy chọn để chỉnh sửa hoặc đặt lại những thông tin đầu vào này. Tuy nhiên, vẫn còn những nguy cơ thực sự với dữ liệu, nhưng những nguy cơ này là những nguy cơ mà chúng ta đã phải đối mặt trước khi có sự xuất hiện của AI sinh ra. Nơi mà một số người có thể sử dụng dữ liệu cá nhân theo cách lành mạnh để đo lường tác động hoặc hiệu quả của một sản phẩm, hoặc để làm cho trải nghiệm sử dụng nó trở nên cá nhân hóa hơn, dữ liệu cũng có giá trị rất thực cho việc nhắm mục tiêu quảng cáo.


Giải thích ELI5:

  1. Trí tuệ nhân tạo (AI): Là một loại máy tính thông minh có thể học hỏi và giúp con người làm nhiều việc, như tìm kiếm thông tin hoặc trò chuyện.
  2. Hố thỏ: Là một cách nói để chỉ việc khi bạn bắt đầu tìm kiếm một điều gì đó và rồi bị cuốn vào nhiều thông tin khác, có thể là sai lệch hoặc không đúng.
  3. Quảng cáo cá nhân hóa: Là những quảng cáo mà bạn thấy trên internet, được thiết kế để phù hợp với sở thích của bạn, như khi bạn tìm kiếm một chiếc lò nướng BBQ và sau đó thấy quảng cáo cho nó.
  4. Dark web: Là một phần của internet mà không ai có thể tìm thấy dễ dàng và thường chứa nhiều thông tin không an toàn hoặc bất hợp pháp.

Giải thích thuật ngữ khó hiểu:

  • Oblate spheroid: Là hình dạng của trái đất, giống như một quả bóng bị dẹt ở hai đầu.
  • Nguyệt thực: Là hiện tượng khi mặt trăng đi vào bóng của trái đất, khiến nó tối lại.
  • AI sinh ra: Là các hệ thống trí tuệ nhân tạo có khả năng tạo ra nội dung mới, như văn bản hoặc hình ảnh.
  • Mạng tối (dark web): Là phần của internet không được lập chỉ mục và thường chứa thông tin bất hợp pháp hoặc nhạy cảm.
Chuyên mục: