YouTube và thuật toán gây cực đoan hóa cùng nhiều thuyết âm mưu

111
Loading...

Tiết lộ của cựu nhân viên Google cho Guardian cho thấy thuật toán gợi ý của YouTube sẽ ưu tiên những video có nội dung nhạy cảm, gây tranh cãi hoặc thuyết âm mưu.


Bạn lên YouTube và muốn xem các video.

Vậy YouTube muốn gì ở bạn?

Cũng giống như các mạng xã hội khác như Facebook hay Twitter, mô hình miễn phí sử dụng của YouTube dựa trên việc khai thác dữ liệu người dùng để bán quảng cáo một cách hiệu quả. Vì vậy, điều cơ bản nhất mà YouTube muốn ở bạn đó là hãy ở lại với YouTube. Bạn càng xem nhiều video của Youtube tức là bạn đang cung cấp dữ liệu hành vi của mình cho trang web này.

Nhưng cũng như Facebook, YouTube đang đối mặt với hàng loạt bê bối vì không thể kiểm soát được nội dung của những video độc hại có trên trang web này. YouTube được cho là đã ưu tiên những thuyết âm mưu về vụ xả súng ở Las Vegas và vụ xả súng trường học Parkland, rồi hàng loạt nội dung độc hại được phát hiện trong các chương trình hướng tới trẻ em.

Một trường hợp khác ít được nói đến chính là những gì diễn ra trong cuộc bầu cử tổng thống Mỹ 2016, thống kê cho thấy những video về thuyết âm mưu với thông tin bất lợi cho ứng viên Dân chủ Hillary Clinton tràn ngập trên YouTube.


YouTube đang tiến gần đến cột mốc 2 tỷ người dùng hàng tháng. Ảnh: Reuters.

Thuật toán của YouTube

Trang chia sẻ nội dung video lớn nhất thế giới đang cán mốc 2 tỷ người dùng hàng tháng, gần với con số của Facebook. Những nội dung mà người dùng của Youtube xem được định hình bởi một thuật toán riêng, chọn ra 20 video “tiếp theo” từ hàng tỷ giờ video có trên trang web.

Theo Guardian, thuật toán này là công cụ quan trọng nhất trong sự phát triển của YouTube. 70% số lượng view trên trang web này được tạo ra bởi chính thuật toán đó. Lời giải thích hiếm hoi về cách thức hoạt động của thuật toán dài như một nghiên cứu học thuật, phác họa một mạng lưới tính toán sâu rộng như hệ thần kinh, lướt qua kho dữ liệu khổng lồ về video và về những người xem chúng.

Các kỹ sư của YouTube mô tả đây là “một trong những hệ thống gợi ý phức tạp nhất từng xuất hiện trong lịch sử”. Tuy vậy, thuật toán này cũng giống như bí mật kinh doanh, và nó không thể được tiết lộ cho công chúng. Thậm chí, chỉ có một số kỹ sư nhất định của Google mới có đủ sự tin tưởng để được tham gia phát triển thuật toán này.

Dù vậy, YouTube tiết lộ mục đích của thuật toán là đề xuất cho người dùng những video mà họ “sẽ muốn xem nhất” và tối đa hóa thời gian xem video.

Cựu kỹ sư Google Guillaume Chaslot, người từng tham gia phát triển thuật toán gợi ý của YouTube, cho rằng nó khiến hiện thực của người dùng bị méo mó. Ảnh: Guardian.
Cựu kỹ sư Google Guillaume Chaslot, người từng tham gia phát triển thuật toán gợi ý của YouTube, cho rằng nó khiến hiện thực của người dùng bị méo mó. Ảnh: Guardian.

“YouTube là thứ gì đó giống như thực tại, nhưng nó được làm méo mó để khiến bạn dành nhiều thời gian hơn trên mạng. Hệ thống gợi ý không ưu tiên sự thật, sự cân bằng hay giúp ích cho tự do”, Guillaume Chaslot, lập trình viên máy tính với bằng tiến sĩ về trí thông minh nhân tạo, nói với Guardian.

Trong thời gian làm việc ở Google, lập trình viên người Pháp này đã có vài tháng làm việc với đội ngũ kỹ sư phát triển thuật toán gợi ý của YouTube.

Theo Chaslot, thuật toán không bao giờ đứng im, nó sẽ thay đổi liên tục để đưa ra dự đoán đựa trên những yếu tố khác nhau: thói quen sử dụng của một người dùng, độ dài một video trước khi người dùng chuyển tới một video khác.

Các kỹ sư khác làm việc cùng Chaslot sẽ chịu trách nhiệm thử nghiệm các công thức mới để tăng doanh thu quảng cáo bằng cách kéo dài thời gian mọi người xem video. “Thời gian theo dõi là ưu tiên hàng đầu, mọi thứ khác đều được coi là yếu tố làm phân tâm”, Chaslot nhớ lại.

Anh ta đặc biệt lo lắng về những lệch lạc nhận thức bởi việc chỉ tập trung gợi ý những video mà người xem không thể cưỡng lại, tạo thành một bộ lọc chủ quan cho người dùng, vì họ sẽ chỉ được gợi ý những video có nội dung củng cố quan điểm của họ về thế giới.

Nếu bạn xem một video về một chú mèo con đang nghịch đuôi của mình, nhiều khả năng video được gợi ý tiếp theo sẽ là một thứ gì đó cũng đáng yêu như vậy chứ không phải là đoạn video về sư tử ăn thịt linh dương. Tương tự, nếu bạn xem một video về những tay giang hồ trên YouTube, chắc chắn bạn sẽ nhận được gợi ý xem tiếp các video về tội phạm chứ không phải một đoạn băng về chương trình khoa học nào đó.

Trái Đất hình cái đĩa và Michelle Obama “là đàn ông”
Kỹ sư người Pháp đã tự viết một phần mềm để ghi lại các gợi ý của YouTube cho các video trong vòng 3 tháng trước khi cuộc bầu cử tổng thống Mỹ 2016 diễn ra, dựa trên số lượng tìm kiếm tương đương nhau của từ khóa “Trump” và “Clinton”.

Kết quả là phần mềm này thường xuyên phát hiện các video thuyết âm mưu có hại cho bà Clinton, được gợi ý ở khu vực “ngay tiếp theo”. Trong số này có những đoạn băng bịa đặt bà Hillary Clinton bị suy sụp tinh thần, mắc bệnh giang mai và Parkinson, có quan hệ đồng tính với Yoko Ono, và rất nhiều những đoạn băng với những thông tin bịa đặt đen tối khác.

Trong 18 tháng tính đến tháng 2/2018, Chaslot cũng cho chạy phần mềm để xác minh điều mà ông nghi ngờ là “sự thiên vị” của YouTube đối với các nội dung liên quan các cuộc bầu cử, hiện tượng nóng lên toàn cầu và các vụ xả súng…

Theo phát hiện của chương trình do Chaslot viết, 80% các video mà YouTube đề xuất về giáo hoàng miêu tả ông “ác quỷ”, “phản Ki Tô”… Trong khi đó, nếu search từ khóa “ai là Michelle Obama?”, thì một chuỗi các video được đề xuất tiếp nối đó sẽ có nội dung hầu hết nói rằng bà là “một người đàn ông”.

Cũng có hàng triệu nội dung trên YouTube tuyên bố trái đất hình cái đĩa chứ không phải hình cầu.

“Ở trên Youtube, những thứ viễn tưởng được xem nhiều hơn những gì thực tế”, Chaslot cho biết.

Trả lời Guardian, người đại diện của YouTube cho biết thuật toán của hãng không định hình nội dung cho người xem, mà đơn thuần chỉ là phản ánh thị hiếu người xem dựa trên cơ sở dữ liệu thu được từ những video người dùng đã xem trước đó.

Khi những thứ muốn xem không tốt cho chúng ta
Zeynep Tufekci, nhà xã hội học danh tiếng người Thổ Nhĩ Kỳ, giảng viên tại Trung tâm Berkman nghiên cứu Internet và Xã hội tại Đại học Harvard, cho rằng nhiều khả năng thuật toán gợi ý của YouTube đã nhận ra rằng các video có nội dung khó chịu và gây tranh cãi sẽ có xu hướng được người dùng xem hết.


Chuyên gia Zeynep Tufekci cho rằng thuật toán gợi ý của Youtube là một công cụ cực đoan hóa. Ảnh: TED.

“Nó cũng giống như một hệ thống tự động ở căn tin trường học nhận ra rằng những đứa trẻ muốn ăn đồ ngọt thì cũng sẽ muốn ăn đồ béo và mặn, và nó tự động mời những đồ ăn như vậy, làm đầy đĩa thức ăn tiếp theo với khoai tây chiên và kẹo”, bà Tufekci nhận xét.

Theo bản năng thì con người luôn bị hấp dẫn bởi những nội dung gây tranh cãi, gây tò mò hoặc khơi gợi những cảm xúc như vui vẻ hoặc tức giận. Khi được đưa ra gợi ý về một video có nội dung gây tranh cãi nào đó, bản năng sẽ là thứ khiến chúng ta click vào, nhưng liệu đó có đồng nghĩa với việc chúng ta muốn được gợi ý những video này? Và liệu nó có tốt cho chúng ta? Đồ ăn nhiều đường thường gây ngon miệng, nhưng liệu nó có tốt cho sức khỏe?

“Vì vậy những đồ ăn ngày càng chứa lượng đường, chất béo và muối cao hơn – vì đó là những kích thích khẩu vị tự nhiên của con người – và các video được YouTube gợi ý cũng sẽ ngày càng có nội dung kỳ quặc hoặc thù ghét hơn”, bà Tufekci so sánh.

“Câu hỏi đặt ra cho chúng ta là tiêu chuẩn đạo đức ở đâu khi cố gắng đưa mọi người vào vòng xoáy thù ghét hoặc tràn ngập trong những thông tin sai lệch hay dối trá chỉ vì điều này sẽ tăng thời gian người dùng sử dụng trang web?”, chuyên gia người Thổ Nhĩ Kỳ chất vấn.

YouTube cho biết họ tìm cách khắc phục bằng việc tăng thêm nhân sự để quản lý những nội dung gây tranh cãi, tuy nhiên với khối lượng video đồ sộ được tải lên (400 giờ mỗi phút), việc sử dụng sức người để giải quyết vấn được cho là không khả quan.

Công ty cũng nói sẽ hợp tác với báo chí và các hãng thông tấn để gỡ bỏ nội dung sai lệch, nhưng tất cả những hành động này không làm giảm mối lo ngại về thuật toán gợi ý của hãng.
Quốc Thăng / Tri Thức Trực Tuyến

Loading...