Đọc văn bản:
“Tỉ phú Elon Musk và nhóm hơn 1.000 (nay đã đạt con số hơn 3.000) chuyên gia công nghệ hàng đầu đã khởi động quá trình kí một bức thư ngỏ gửi Liên hiệp quốc cảnh báo về nguy cơ trí tuệ nhân tạo (AI) phát triển không kiểm soát. Câu hỏi đặt ra là “Vì sao AI nguy hiểm với con người”?
Trên thực tế đây không phải lần đầu tiên các nhà khoa học lên tiếng cảnh báo về viễn cảnh trí tuệ nhân tạo trở nên nguy hiểm đối với con người. Năm 2014, nhà vật lí lí thuyết nổi tiếng người Anh Stephen Hawking cho rằng: “Sự phát triển toàn diện của trí tuệ nhân tạo có thể sẽ hủy diệt loài người”. Ông cũng nhận định loài người sẽ bị trí tuệ nhân tạo hoàn toàn thay thế trong 500 năm nữa nếu không cẩn trọng trong quá trình nghiên cứu và phát triển công nghệ nguy hiểm này. Cách đây 8 năm, tháng 7-2015, hơn 1.000 chuyên gia nghiên cứu công nghệ trí tuệ nhân tạo, trong đó có Stephen Hawking, Elon Musk, Noam Chomsky... đã cùng kí vào một lá đơn cảnh báo về nguy cơ một cuộc chạy đua vũ trang trong lĩnh vực AI quân sự và kêu gọi cấm toàn diện các loại vũ khí tấn công tự động (autonomous weapons: Kết hợp AI và vũ khí sát thương). Việc OpenAI cho ra mắt ứng dụng Chat GPT vào tháng 11-2022 đã thêm một hồi chuông cảnh báo đối với nguy cơ hiện hữu từ trí tuệ nhân tạo. Trên thực tế, những gì Chat GPT đang làm cho thấy AI ở chừng một mực nào đó đã và đang trở nên nguy hiểm hơn rất nhiều so với những gì con người từng nghĩ.
Nguy cơ tiềm ẩn của trí tuệ nhân tạo phụ thuộc vào cách mà nó được sử dụng. Ban đầu AI được phát triển để trợ giúp con người trong công việc, đặc biệt là với các công việc nhàm chán lặp đi lặp lại như phân loại hình ảnh, rà soát thông tin... Tuy nhiên, với sự phát triển nhanh chóng của AI trong thời gian gần đây, các nhà khoa học và chuyên gia công nghệ lo ngại rằng nếu phát triển một cách không kiểm soát, hoặc được lập trình với mục đích không đúng đắn, trí tuệ nhân tạo có thể gây ra những hậu quả nghiêm trọng cho con người và xã hội.
Nguy cơ mất an ninh
Trí tuệ nhân tạo có thể trở thành mối nguy đối với an ninh quốc gia và an toàn cá nhân. Elon Musk đã cảnh báo rằng AI có thể trở thành một công cụ đáng sợ trong chiến tranh. Nếu một quốc gia có thể phát triển một hệ thống trí tuệ nhân tạo vượt trội, quốc gia đó có thể sử dụng nó để tấn công các quốc gia khác. Giáo sư khoa học máy tính Stuart Russell tại Đại học California là người từng dành hàng chục năm nghiên cứu về trí tuệ nhân tạo. Cảnh báo về mối hiểm họa đối với an ninh do AI mang lại, ông cho rằng hiện nay chúng ta đã có thể sản xuất vũ khí tấn công tự động bằng cách tích hợp và thu nhỏ những công nghệ sẵn có.
Thí nghiệm được Giáo sư Stuart Russell cùng Viện nghiên cứu Cuộc sống tương lai (FLI) tiến hành sử dụng một robot sát thủ (slaughterbot) là thiết bị bay siêu nhỏ, trang bị camera, cảm biến, phần mềm xử lí hình ảnh, nhận diện khuôn mặt, một khối thuốc nổ nặng 3gr, và một bộ vi xử lí tốc độ cao, cho phép phân tích dữ liệu và phản ứng nhanh hơn 100 lần tốc độ bộ não con người. Theo thông số lập trình, robot sát thủ truy cập liên tục vào dữ liệu đám mây để tìm kiếm thông tin về mục tiêu và tìm cách tiếp cận. Khi đã tìm được, nó sẽ lao thẳng vào mục tiêu với vận tốc lớn, kích hoạt khối thuốc nổ 3gr, khoan sâu vào bên trong hộp sọ, giết chết nạn nhân trong nháy mắt.
Đó chỉ là một thí nghiệm với AI ở cấp độ đơn giản nhất. Nếu AI được sử dụng để phát triển các phương thức tấn công mới, tinh vi hơn, nó cũng có thể làm tăng khả năng tấn công của nhóm những kẻ tấn công và dẫn đến các hậu quả nghiêm trọng hơn so với các cuộc tấn công thông thường. Khi AI được phát triển đến trình độ có thể tự ra quyết định để đối phó với sự biến đổi của môi trường xung quanh hoặc tự tìm kiếm mục tiêu thay thế, hay mở rộng phạm vi mục tiêu thì có lẽ loài người sẽ không còn an toàn nữa. Rất nhiều đồng nghiệp trong lĩnh vực này đồng ý với Giáo sư Stuart Russell và cho rằng vẫn còn có cơ hội để ngăn chặn một tương lai ảm đạm như vậy, nhưng chúng ta cũng không thực sự còn nhiều thời gian.
Nguy cơ AI trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống
AI có thể được thiết kế sai lệch hoặc được “huấn luyện” (training) thông qua cơ chế học máy (machine learning) không đúng cách và có thể thực hiện những hành động không mong muốn, gây thiệt hại cho con người và môi trường. Ví dụ cụ thể như sau: Với cơ chế học máy, AI ngày càng trở nên thông minh hơn. Khi trí tuệ nhân tạo đạt mức độ thông minh mà từ chỗ hỗ trợ các hệ thống quan trọng như điện lực, giao thông, y tế, tài chính..., nó có thể làm chủ và kiểm soát toàn bộ các hệ thống này và tự ra quyết định, thực hiện các quyết định đó trong các tình huống khẩn cấp. Khi AI được “trang bị” thêm các mục đích mang tính “dã tâm” có chủ đích (thiết kế sai lệch), nó có thể gây ra nhiều hậu quả nghiêm trọng như làm rối loạn hệ thống giao thông khi vô hiệu hoá hệ thống đèn giao thông hay ngắt điện hệ thống vận hành tàu điện đô thị, gây tai nạn liên hoàn, làm mất điện trên diện rộng...
Đã có khá nhiều bộ phim Hollywood và của nhiều nước được xây dựng theo kịch bản này. Tuy nhiên, với công nghệ AI hiện nay, điều này không còn là viễn cảnh quá xa xôi mà hoàn toàn có thể trở thành hiện thực. Elon Musk tin rằng nếu để AI phát triển không kiểm soát, đến mức nó có thể tự động hoá các quyết định mà không cần sự can thiệp của con người thì đây có thể là một nguy cơ cho sự tồn vong của con người. Đó là lí do ông cùng hàng nghìn chuyên gia công nghệ kí vào bức thư yêu cầu tạm ngừng và kiểm soát chặt chẽ quá trình phát triển AI một cách minh bạch. Theo Elon Musk, các hệ thống trí tuệ nhân tạo rất phức tạp, khó hiểu và việc kiểm soát chúng là rất khó khăn. Nếu thiếu đi sự minh bạch, việc sử dụng trí tuệ nhân tạo cho các mục đích thiếu đạo đức, gây thiệt hại cho con người chắc chắn sẽ xảy ra.
Nguy cơ tước đoạt việc làm, vi phạm quyền riêng tư
Khi được sử dụng để thu thập thông tin cá nhân, công nghệ trí tuệ nhân tạo có thể bị sử dụng để vi phạm quyền riêng tư, thực hiện các hoạt động truyền thông thất thiệt, tuyên truyền thông tin sai lệch ảnh hưởng tới tình hình xã hội và ổn định chính trị. Vụ việc hệ thống mạng của Văn phòng Quản lí nhân sự (OPM) chính phủ Mỹ bị tấn công bởi tin tặc đã là đáng lưu tâm đối với bất cứ quốc gia hay tổ chức nào khi dữ liệu cá nhân chi tiết và rất nhạy cảm của 21,5 triệu quan chức tại chức và đã nghỉ hưu của Mỹ, thông tin về vợ/chồng của họ, dữ liệu về những người từng nộp đơn xin việc vào cơ quan chính phủ như tình trạng sức khỏe, nơi cư trú, công việc, vân tay và thông tin tài chính đã lọt vào tay tin tặc. Thế nhưng có một thực tế còn đáng sợ hơn khi CIA phát hiện ra rằng đối tượng đánh cắp dữ liệu OPM đã sử dụng công nghệ trí tuệ nhân tạo để rà soát, fake (làm giả) thông tin cá nhân, tạo lập các điệp viên ảo để đánh cắp dữ liệu. Thông tin sau khi bị đánh cắp sẽ được công nghệ Bigdata (dữ liệu lớn) phân tích, phân loại, và khai thác cho các mục đích sử dụng cụ thể. Công nghệ trí tuệ nhân tạo giúp bên đánh cắp thông tin rút ngắn được thời gian khai thác thông tin bởi con người không đủ khả năng xử lí một khối lượng thông tin khổng lồ trong một thời gian ngắn như vậy.
Bên cạnh những mối nguy hiện hữu nói trên, công nghệ AI cũng tạo ra những nguy cơ khác như: Phụ thuộc quá mức vào nó, dẫn đến hậu quả con người mất kiểm soát tình hình và suy giảm khả năng đưa ra quyết định. Trí tuệ nhân tạo cũng sẽ khiến hàng triệu, thậm chí hàng trăm triệu người mất việc làm, đặc biệt là đối với những công việc lao động chân tay thuần túy, ít hàm lượng tri thức. Hậu quả là những vấn đề xã hội nghiêm trọng như thất nghiệp, tội phạm, khoảng cách giàu - nghèo... sẽ càng trở nên sâu sắc hơn. Thêm vào đó, độ tin cậy cũng là vấn đề cần nhắc đến. Độ tin cậy của các quyết định trong các lĩnh vực chuyên môn hoá cao như y tế, hình sự... là vô cùng quan trọng. Khi sử dụng AI để trợ giúp đưa ra các quyết định trong những lĩnh vực đó mà công nghệ không đủ tin cậy, vận hành dựa trên các dữ liệu có xu hướng thiên vị một hoặc một nhóm người hoặc bị bóp méo có chủ đích thì những quyết định đó có khả năng gây ra những hậu quả nghiêm trọng.”
“Tỉ phú Elon Musk và nhóm hơn 1.000 (nay đã đạt con số hơn 3.000) chuyên gia công nghệ hàng đầu đã khởi động quá trình kí một bức thư ngỏ gửi Liên hiệp quốc cảnh báo về nguy cơ trí tuệ nhân tạo (AI) phát triển không kiểm soát. Câu hỏi đặt ra là “Vì sao AI nguy hiểm với con người”?
Trên thực tế đây không phải lần đầu tiên các nhà khoa học lên tiếng cảnh báo về viễn cảnh trí tuệ nhân tạo trở nên nguy hiểm đối với con người. Năm 2014, nhà vật lí lí thuyết nổi tiếng người Anh Stephen Hawking cho rằng: “Sự phát triển toàn diện của trí tuệ nhân tạo có thể sẽ hủy diệt loài người”. Ông cũng nhận định loài người sẽ bị trí tuệ nhân tạo hoàn toàn thay thế trong 500 năm nữa nếu không cẩn trọng trong quá trình nghiên cứu và phát triển công nghệ nguy hiểm này. Cách đây 8 năm, tháng 7-2015, hơn 1.000 chuyên gia nghiên cứu công nghệ trí tuệ nhân tạo, trong đó có Stephen Hawking, Elon Musk, Noam Chomsky... đã cùng kí vào một lá đơn cảnh báo về nguy cơ một cuộc chạy đua vũ trang trong lĩnh vực AI quân sự và kêu gọi cấm toàn diện các loại vũ khí tấn công tự động (autonomous weapons: Kết hợp AI và vũ khí sát thương). Việc OpenAI cho ra mắt ứng dụng Chat GPT vào tháng 11-2022 đã thêm một hồi chuông cảnh báo đối với nguy cơ hiện hữu từ trí tuệ nhân tạo. Trên thực tế, những gì Chat GPT đang làm cho thấy AI ở chừng một mực nào đó đã và đang trở nên nguy hiểm hơn rất nhiều so với những gì con người từng nghĩ.
Nguy cơ tiềm ẩn của trí tuệ nhân tạo phụ thuộc vào cách mà nó được sử dụng. Ban đầu AI được phát triển để trợ giúp con người trong công việc, đặc biệt là với các công việc nhàm chán lặp đi lặp lại như phân loại hình ảnh, rà soát thông tin... Tuy nhiên, với sự phát triển nhanh chóng của AI trong thời gian gần đây, các nhà khoa học và chuyên gia công nghệ lo ngại rằng nếu phát triển một cách không kiểm soát, hoặc được lập trình với mục đích không đúng đắn, trí tuệ nhân tạo có thể gây ra những hậu quả nghiêm trọng cho con người và xã hội.
Nguy cơ mất an ninh
Trí tuệ nhân tạo có thể trở thành mối nguy đối với an ninh quốc gia và an toàn cá nhân. Elon Musk đã cảnh báo rằng AI có thể trở thành một công cụ đáng sợ trong chiến tranh. Nếu một quốc gia có thể phát triển một hệ thống trí tuệ nhân tạo vượt trội, quốc gia đó có thể sử dụng nó để tấn công các quốc gia khác. Giáo sư khoa học máy tính Stuart Russell tại Đại học California là người từng dành hàng chục năm nghiên cứu về trí tuệ nhân tạo. Cảnh báo về mối hiểm họa đối với an ninh do AI mang lại, ông cho rằng hiện nay chúng ta đã có thể sản xuất vũ khí tấn công tự động bằng cách tích hợp và thu nhỏ những công nghệ sẵn có.
Thí nghiệm được Giáo sư Stuart Russell cùng Viện nghiên cứu Cuộc sống tương lai (FLI) tiến hành sử dụng một robot sát thủ (slaughterbot) là thiết bị bay siêu nhỏ, trang bị camera, cảm biến, phần mềm xử lí hình ảnh, nhận diện khuôn mặt, một khối thuốc nổ nặng 3gr, và một bộ vi xử lí tốc độ cao, cho phép phân tích dữ liệu và phản ứng nhanh hơn 100 lần tốc độ bộ não con người. Theo thông số lập trình, robot sát thủ truy cập liên tục vào dữ liệu đám mây để tìm kiếm thông tin về mục tiêu và tìm cách tiếp cận. Khi đã tìm được, nó sẽ lao thẳng vào mục tiêu với vận tốc lớn, kích hoạt khối thuốc nổ 3gr, khoan sâu vào bên trong hộp sọ, giết chết nạn nhân trong nháy mắt.
Đó chỉ là một thí nghiệm với AI ở cấp độ đơn giản nhất. Nếu AI được sử dụng để phát triển các phương thức tấn công mới, tinh vi hơn, nó cũng có thể làm tăng khả năng tấn công của nhóm những kẻ tấn công và dẫn đến các hậu quả nghiêm trọng hơn so với các cuộc tấn công thông thường. Khi AI được phát triển đến trình độ có thể tự ra quyết định để đối phó với sự biến đổi của môi trường xung quanh hoặc tự tìm kiếm mục tiêu thay thế, hay mở rộng phạm vi mục tiêu thì có lẽ loài người sẽ không còn an toàn nữa. Rất nhiều đồng nghiệp trong lĩnh vực này đồng ý với Giáo sư Stuart Russell và cho rằng vẫn còn có cơ hội để ngăn chặn một tương lai ảm đạm như vậy, nhưng chúng ta cũng không thực sự còn nhiều thời gian.
Nguy cơ AI trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống
AI có thể được thiết kế sai lệch hoặc được “huấn luyện” (training) thông qua cơ chế học máy (machine learning) không đúng cách và có thể thực hiện những hành động không mong muốn, gây thiệt hại cho con người và môi trường. Ví dụ cụ thể như sau: Với cơ chế học máy, AI ngày càng trở nên thông minh hơn. Khi trí tuệ nhân tạo đạt mức độ thông minh mà từ chỗ hỗ trợ các hệ thống quan trọng như điện lực, giao thông, y tế, tài chính..., nó có thể làm chủ và kiểm soát toàn bộ các hệ thống này và tự ra quyết định, thực hiện các quyết định đó trong các tình huống khẩn cấp. Khi AI được “trang bị” thêm các mục đích mang tính “dã tâm” có chủ đích (thiết kế sai lệch), nó có thể gây ra nhiều hậu quả nghiêm trọng như làm rối loạn hệ thống giao thông khi vô hiệu hoá hệ thống đèn giao thông hay ngắt điện hệ thống vận hành tàu điện đô thị, gây tai nạn liên hoàn, làm mất điện trên diện rộng...
Đã có khá nhiều bộ phim Hollywood và của nhiều nước được xây dựng theo kịch bản này. Tuy nhiên, với công nghệ AI hiện nay, điều này không còn là viễn cảnh quá xa xôi mà hoàn toàn có thể trở thành hiện thực. Elon Musk tin rằng nếu để AI phát triển không kiểm soát, đến mức nó có thể tự động hoá các quyết định mà không cần sự can thiệp của con người thì đây có thể là một nguy cơ cho sự tồn vong của con người. Đó là lí do ông cùng hàng nghìn chuyên gia công nghệ kí vào bức thư yêu cầu tạm ngừng và kiểm soát chặt chẽ quá trình phát triển AI một cách minh bạch. Theo Elon Musk, các hệ thống trí tuệ nhân tạo rất phức tạp, khó hiểu và việc kiểm soát chúng là rất khó khăn. Nếu thiếu đi sự minh bạch, việc sử dụng trí tuệ nhân tạo cho các mục đích thiếu đạo đức, gây thiệt hại cho con người chắc chắn sẽ xảy ra.
Nguy cơ tước đoạt việc làm, vi phạm quyền riêng tư
Khi được sử dụng để thu thập thông tin cá nhân, công nghệ trí tuệ nhân tạo có thể bị sử dụng để vi phạm quyền riêng tư, thực hiện các hoạt động truyền thông thất thiệt, tuyên truyền thông tin sai lệch ảnh hưởng tới tình hình xã hội và ổn định chính trị. Vụ việc hệ thống mạng của Văn phòng Quản lí nhân sự (OPM) chính phủ Mỹ bị tấn công bởi tin tặc đã là đáng lưu tâm đối với bất cứ quốc gia hay tổ chức nào khi dữ liệu cá nhân chi tiết và rất nhạy cảm của 21,5 triệu quan chức tại chức và đã nghỉ hưu của Mỹ, thông tin về vợ/chồng của họ, dữ liệu về những người từng nộp đơn xin việc vào cơ quan chính phủ như tình trạng sức khỏe, nơi cư trú, công việc, vân tay và thông tin tài chính đã lọt vào tay tin tặc. Thế nhưng có một thực tế còn đáng sợ hơn khi CIA phát hiện ra rằng đối tượng đánh cắp dữ liệu OPM đã sử dụng công nghệ trí tuệ nhân tạo để rà soát, fake (làm giả) thông tin cá nhân, tạo lập các điệp viên ảo để đánh cắp dữ liệu. Thông tin sau khi bị đánh cắp sẽ được công nghệ Bigdata (dữ liệu lớn) phân tích, phân loại, và khai thác cho các mục đích sử dụng cụ thể. Công nghệ trí tuệ nhân tạo giúp bên đánh cắp thông tin rút ngắn được thời gian khai thác thông tin bởi con người không đủ khả năng xử lí một khối lượng thông tin khổng lồ trong một thời gian ngắn như vậy.
Bên cạnh những mối nguy hiện hữu nói trên, công nghệ AI cũng tạo ra những nguy cơ khác như: Phụ thuộc quá mức vào nó, dẫn đến hậu quả con người mất kiểm soát tình hình và suy giảm khả năng đưa ra quyết định. Trí tuệ nhân tạo cũng sẽ khiến hàng triệu, thậm chí hàng trăm triệu người mất việc làm, đặc biệt là đối với những công việc lao động chân tay thuần túy, ít hàm lượng tri thức. Hậu quả là những vấn đề xã hội nghiêm trọng như thất nghiệp, tội phạm, khoảng cách giàu - nghèo... sẽ càng trở nên sâu sắc hơn. Thêm vào đó, độ tin cậy cũng là vấn đề cần nhắc đến. Độ tin cậy của các quyết định trong các lĩnh vực chuyên môn hoá cao như y tế, hình sự... là vô cùng quan trọng. Khi sử dụng AI để trợ giúp đưa ra các quyết định trong những lĩnh vực đó mà công nghệ không đủ tin cậy, vận hành dựa trên các dữ liệu có xu hướng thiên vị một hoặc một nhóm người hoặc bị bóp méo có chủ đích thì những quyết định đó có khả năng gây ra những hậu quả nghiêm trọng.”
(“Vì sao AI nguy hiểm?” - Hữu Dương, theo qdnd.vn)
Thực hiện các yêu cầu:
Câu 1 [822735]: Chỉ ra đề tài của văn bản.
Đề tài của văn bản: Trí tuệ nhân tạo (AI).
Câu 2 [822737]: Nêu mục đích của văn bản.
Mục đích của văn bản: Cảnh báo sự nguy hiểm của trí tuệ nhân tạo khi việc phát triển và sử dụng nó không được kiểm soát.
Câu 3 [822738]: Văn bản được chia làm mấy phần? Chỉ ra nội dung chính của từng phần.
Văn bản được chia thành các phần:
- Phần thứ nhất (từ đầu đến cho con người và xã hội): Cảnh báo của các chuyên gia công nghệ hàng đầu thế giới về mức độ nguy hiểm khi trí tuệ nhân tạo phát triển không kiểm soát.
+ Phần thứ hai (còn lại): Một số nguy cơ tiềm ẩn của trí tuệ nhân tạo.
+ Nguy cơ mất an ninh.
+ Nguy cơ AI trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống
+ Nguy cơ tước đoạt việc làm
+ Nguy cơ vi phạm quyền riêng tư
- Phần thứ nhất (từ đầu đến cho con người và xã hội): Cảnh báo của các chuyên gia công nghệ hàng đầu thế giới về mức độ nguy hiểm khi trí tuệ nhân tạo phát triển không kiểm soát.
+ Phần thứ hai (còn lại): Một số nguy cơ tiềm ẩn của trí tuệ nhân tạo.
+ Nguy cơ mất an ninh.
+ Nguy cơ AI trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống
+ Nguy cơ tước đoạt việc làm
+ Nguy cơ vi phạm quyền riêng tư
Câu 4 [822739]: Văn bản kết hợp các phương thức biểu đạt nào? Nêu tác dụng của sự kết hợp các phương thức biểu đạt trong văn bản.
- Văn bản kết hợp các phương thức biểu đạt: nghị luận, tự sự, biểu cảm, thuyết minh.
(+ Nghị luận: Bàn về mức độ nguy hiểm của trí tuệ nhân tạo khi nó phát triển không được kiểm soát.
+ Biểu cảm: thể hiện qua thái độ lo ngại và sự cảnh báo của người viết về mức độ nguy hiểm của trí tuệ nhân tạo.
+ Tự sự: thể hiện qua việc điểm một vài sự việc như: tháng 7-2015, hơn 1.000 chuyên gia nghiên cứu công nghệ trí tuệ nhân tạo đã cùng kí vào một lá đơn cảnh báo về nguy cơ một cuộc chạy đua vũ trang trong lĩnh vực AI quân sự và kêu gọi cấm toàn diện các loại vũ khí tấn công tự động; vụ việc hệ thống mạng của Văn phòng Quản lí nhân sự (OPM) chính phủ Mỹ bị tấn công bởi tin tặc;...
+ Thuyết minh: thí nghiệm được Giáo sư Stuart Russell cùng Viện nghiên cứu Cuộc sống tương lai (FLI)...)
- Tác dụng của sự kết hợp các phương thức biểu đạt trong văn bản:
+ Mỗi phương thức biểu đạt thực thi một vai trò riêng trong văn bản:
• Nghị luận: giúp người viết thể hiện được ý kiến, sự nhìn nhận, đánh giá về mức độ nguy hiểm và những nguy cơ có thể xảy khi khi trí tuệ nhân tạo phát triển không được kiểm soát và người sử dụng lạm dụng nó.
• Biểu cảm: giúp người viết thể hiện được thái độ lo ngại trước mức độ nguy hiểm và sự cảnh báo về các nguy cơ có thể xảy đến khi trí tuệ nhân tạo được phát triển một cách không kiểm soát và bị lạm dụng.
• Tự sự: việc kể lại một vài sự việc, sự kiện trong văn bản như là một cách nêu bằng chứng để làm sáng tỏ cho vấn đề nghị luận.
• Thuyết minh: cũng được sử dụng như một cách nêu bằng chứng để làm sáng tỏ cho vấn đề nghị luận.
+ Sự kết hợp giữa các phương thức biểu đạt làm cho văn bản trở nên chặt chẽ, thuyết phục, sinh động, hấp dẫn hơn; tác động mạnh mẽ đến nhận thức, cảm xúc của người đọc.
(+ Nghị luận: Bàn về mức độ nguy hiểm của trí tuệ nhân tạo khi nó phát triển không được kiểm soát.
+ Biểu cảm: thể hiện qua thái độ lo ngại và sự cảnh báo của người viết về mức độ nguy hiểm của trí tuệ nhân tạo.
+ Tự sự: thể hiện qua việc điểm một vài sự việc như: tháng 7-2015, hơn 1.000 chuyên gia nghiên cứu công nghệ trí tuệ nhân tạo đã cùng kí vào một lá đơn cảnh báo về nguy cơ một cuộc chạy đua vũ trang trong lĩnh vực AI quân sự và kêu gọi cấm toàn diện các loại vũ khí tấn công tự động; vụ việc hệ thống mạng của Văn phòng Quản lí nhân sự (OPM) chính phủ Mỹ bị tấn công bởi tin tặc;...
+ Thuyết minh: thí nghiệm được Giáo sư Stuart Russell cùng Viện nghiên cứu Cuộc sống tương lai (FLI)...)
- Tác dụng của sự kết hợp các phương thức biểu đạt trong văn bản:
+ Mỗi phương thức biểu đạt thực thi một vai trò riêng trong văn bản:
• Nghị luận: giúp người viết thể hiện được ý kiến, sự nhìn nhận, đánh giá về mức độ nguy hiểm và những nguy cơ có thể xảy khi khi trí tuệ nhân tạo phát triển không được kiểm soát và người sử dụng lạm dụng nó.
• Biểu cảm: giúp người viết thể hiện được thái độ lo ngại trước mức độ nguy hiểm và sự cảnh báo về các nguy cơ có thể xảy đến khi trí tuệ nhân tạo được phát triển một cách không kiểm soát và bị lạm dụng.
• Tự sự: việc kể lại một vài sự việc, sự kiện trong văn bản như là một cách nêu bằng chứng để làm sáng tỏ cho vấn đề nghị luận.
• Thuyết minh: cũng được sử dụng như một cách nêu bằng chứng để làm sáng tỏ cho vấn đề nghị luận.
+ Sự kết hợp giữa các phương thức biểu đạt làm cho văn bản trở nên chặt chẽ, thuyết phục, sinh động, hấp dẫn hơn; tác động mạnh mẽ đến nhận thức, cảm xúc của người đọc.
Câu 5 [822741]: Xác định phương thức biểu đạt chính của văn bản.
Phương thức biểu đạt chính của văn bản: nghị luận.
Câu 6 [822743]: Theo văn bản, nguy cơ tiềm ẩn của trí tuệ nhân tạo phụ thuộc vào điều gì?
Theo văn bản, nguy cơ tiềm ẩn của trí tuệ nhân tạo phụ thuộc vào cách mà nó được sử dụng.
Câu 7 [822744]: Văn bản đề cập đến những nguy cơ nào được đưa đến bởi trí tuệ nhân tạo (AI)?
Văn bản đề cập đến nhiều nguy cơ được đưa đến bởi trí tuệ nhân tạo, gồm:
- Nguy cơ mất an ninh.
- Nguy cơ AI trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống
- Nguy cơ tước đoạt việc làm
- Nguy cơ vi phạm quyền riêng tư
- Nguy cơ mất an ninh.
- Nguy cơ AI trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống
- Nguy cơ tước đoạt việc làm
- Nguy cơ vi phạm quyền riêng tư
Câu 8 [822745]: Văn bản kết hợp các thao tác lập luận nào?
Văn bản kết hợp các thao tác lập luận: phân tích, chứng minh, giải thích.
(- Phân tích các nguy cơ có thể đưa đến từ việc phát triển trí tuệ nhân tạo không kiểm soát. Ví dụ: nguy cơ mất an ninh, nguy cơ tước đoạt việc làm,...
- Chứng minh các nguy cơ. Chẳng hạn: Để chứng minh cho nguy cơ vi phạm quyền riêng tư khi trí tuệ nhân tạo bị lạm dụng, người viết đã sử dụng bằng chứng là vụ việc hệ thống mạng của Văn phòng Quản lí nhân sự (OPM) chính phủ Mỹ bị tấn công bởi tin tặc;...
- Giải thích. Chẳng hạn giải thích nguyên do đưa đến nguy cơ AI trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống: AI có thể được thiết kế sai lệch hoặc được “huấn luyện” (training) thông qua cơ chế học máy (machine learning) không đúng cách và có thể thực hiện những hành động không mong muốn, gây thiệt hại cho con người và môi trường.)
(- Phân tích các nguy cơ có thể đưa đến từ việc phát triển trí tuệ nhân tạo không kiểm soát. Ví dụ: nguy cơ mất an ninh, nguy cơ tước đoạt việc làm,...
- Chứng minh các nguy cơ. Chẳng hạn: Để chứng minh cho nguy cơ vi phạm quyền riêng tư khi trí tuệ nhân tạo bị lạm dụng, người viết đã sử dụng bằng chứng là vụ việc hệ thống mạng của Văn phòng Quản lí nhân sự (OPM) chính phủ Mỹ bị tấn công bởi tin tặc;...
- Giải thích. Chẳng hạn giải thích nguyên do đưa đến nguy cơ AI trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống: AI có thể được thiết kế sai lệch hoặc được “huấn luyện” (training) thông qua cơ chế học máy (machine learning) không đúng cách và có thể thực hiện những hành động không mong muốn, gây thiệt hại cho con người và môi trường.)
Câu 9 [822746]: Chỉ ra hệ thống luận đề, luận điểm, lí lẽ, bằng chứng, ý kiến trong văn bản.
Hệ thống luận đề, luận điểm, lí lẽ, bằng chứng, ý kiến trong văn bản:
- Luận đề: Cảnh báo về mức độ nguy hiểm và một số nguy cơ có thể xảy ra khi AI phát triển không được kiểm soát và bị con người lạm dụng.
- Luận điểm:
+ Nguy cơ mất an ninh: Trí tuệ nhân tạo có thể trở thành mối nguy đối với an ninh quốc gia và an toàn cá nhân.
• Bằng chứng: cảnh báo của Elon Musk, cảnh báo và thí nghiệm của giáo sư khoa học máy tính Stuart Russell...
• Ý kiến. Chẳng hạn: Đó chỉ là một thí nghiệm với AI ở cấp độ đơn giản nhất. Nếu AI được sử dụng để phát triển các phương thức tấn công mới, tinh vi hơn, nó cũng có thể làm tăng khả năng tấn công của nhóm những kẻ tấn công và dẫn đến các hậu quả nghiêm trọng hơn so với các cuộc tấn công thông thường...
+ Nguy cơ AI trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống:
• Lí lẽ: AI có thể được thiết kế sai lệch hoặc được “huấn luyện” (training) thông qua cơ chế học máy (machine learning) không đúng cách và có thể thực hiện những hành động không mong muốn, gây thiệt hại cho con người và môi trường.
• Bằng chứng: Với cơ chế học máy, AI ngày càng trở nên thông minh hơn. Khi trí tuệ nhân tạo đạt mức độ thông minh mà từ chỗ hỗ trợ các hệ thống quan trọng như điện lực, giao thông, y tế, tài chính..., nó có thể làm chủ và kiểm soát toàn bộ các hệ thống này và tự ra quyết định, thực hiện các quyết định đó trong các tình huống khẩn cấp...
• Ý kiến. Chẳng hạn: Nếu thiếu đi sự minh bạch, việc sử dụng trí tuệ nhân tạo cho các mục đích thiếu đạo đức, gây thiệt hại cho con người chắc chắn sẽ xảy ra.
+ Nguy cơ tước đoạt việc làm
• Ý kiến: Trí tuệ nhân tạo cũng sẽ khiến hàng triệu, thậm chí hàng trăm triệu người mất việc làm, đặc biệt là đối với những công việc lao động chân tay thuần túy, ít hàm lượng tri thức.
+ Nguy cơ vi phạm quyền riêng tư
• Lí lẽ: Khi được sử dụng để thu thập thông tin cá nhân, công nghệ trí tuệ nhân tạo có thể bị sử dụng để vi phạm quyền riêng tư, thực hiện các hoạt động truyền thông thất thiệt, tuyên truyền thông tin sai lệch ảnh hưởng tới tình hình xã hội và ổn định chính trị.
• Bằng chứng: Vụ việc hệ thống mạng của Văn phòng Quản lí nhân sự (OPM) chính phủ Mỹ bị tấn công bởi tin tặc.
- Luận đề: Cảnh báo về mức độ nguy hiểm và một số nguy cơ có thể xảy ra khi AI phát triển không được kiểm soát và bị con người lạm dụng.
- Luận điểm:
+ Nguy cơ mất an ninh: Trí tuệ nhân tạo có thể trở thành mối nguy đối với an ninh quốc gia và an toàn cá nhân.
• Bằng chứng: cảnh báo của Elon Musk, cảnh báo và thí nghiệm của giáo sư khoa học máy tính Stuart Russell...
• Ý kiến. Chẳng hạn: Đó chỉ là một thí nghiệm với AI ở cấp độ đơn giản nhất. Nếu AI được sử dụng để phát triển các phương thức tấn công mới, tinh vi hơn, nó cũng có thể làm tăng khả năng tấn công của nhóm những kẻ tấn công và dẫn đến các hậu quả nghiêm trọng hơn so với các cuộc tấn công thông thường...
+ Nguy cơ AI trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống:
• Lí lẽ: AI có thể được thiết kế sai lệch hoặc được “huấn luyện” (training) thông qua cơ chế học máy (machine learning) không đúng cách và có thể thực hiện những hành động không mong muốn, gây thiệt hại cho con người và môi trường.
• Bằng chứng: Với cơ chế học máy, AI ngày càng trở nên thông minh hơn. Khi trí tuệ nhân tạo đạt mức độ thông minh mà từ chỗ hỗ trợ các hệ thống quan trọng như điện lực, giao thông, y tế, tài chính..., nó có thể làm chủ và kiểm soát toàn bộ các hệ thống này và tự ra quyết định, thực hiện các quyết định đó trong các tình huống khẩn cấp...
• Ý kiến. Chẳng hạn: Nếu thiếu đi sự minh bạch, việc sử dụng trí tuệ nhân tạo cho các mục đích thiếu đạo đức, gây thiệt hại cho con người chắc chắn sẽ xảy ra.
+ Nguy cơ tước đoạt việc làm
• Ý kiến: Trí tuệ nhân tạo cũng sẽ khiến hàng triệu, thậm chí hàng trăm triệu người mất việc làm, đặc biệt là đối với những công việc lao động chân tay thuần túy, ít hàm lượng tri thức.
+ Nguy cơ vi phạm quyền riêng tư
• Lí lẽ: Khi được sử dụng để thu thập thông tin cá nhân, công nghệ trí tuệ nhân tạo có thể bị sử dụng để vi phạm quyền riêng tư, thực hiện các hoạt động truyền thông thất thiệt, tuyên truyền thông tin sai lệch ảnh hưởng tới tình hình xã hội và ổn định chính trị.
• Bằng chứng: Vụ việc hệ thống mạng của Văn phòng Quản lí nhân sự (OPM) chính phủ Mỹ bị tấn công bởi tin tặc.
Câu 10 [822747]: Chỉ ra một câu khẳng định và một câu phủ định trong văn bản.
Thí sinh có thể chỉ ra một câu khẳng định và một câu phủ định trong số các câu sau:
- Câu khẳng định:
+ Trí tuệ nhân tạo có thể trở thành mối nguy đối với an ninh quốc gia và an toàn cá nhân.
+ Đó chỉ là một thí nghiệm với AI ở cấp độ đơn giản nhất.
+ Thông tin sau khi bị đánh cắp sẽ được công nghệ Bigdata (dữ liệu lớn) phân tích, phân loại, và khai thác cho các mục đích sử dụng cụ thể.
+ ...
- Câu phủ định:
+ Trên thực tế đây không phải lần đầu tiên các nhà khoa học lên tiếng cảnh báo về viễn cảnh trí tuệ nhân tạo trở nên nguy hiểm đối với con người.
+ Ông cũng nhận định loài người sẽ bị trí tuệ nhân tạo hoàn toàn thay thế trong 500 năm nữa nếu không cẩn trọng trong quá trình nghiên cứu và phát triển công nghệ nguy hiểm này.
+ Tuy nhiên, với công nghệ AI hiện nay, điều này không còn là viễn cảnh quá xa xôi mà hoàn toàn có thể trở thành hiện thực.
+ ...
- Câu khẳng định:
+ Trí tuệ nhân tạo có thể trở thành mối nguy đối với an ninh quốc gia và an toàn cá nhân.
+ Đó chỉ là một thí nghiệm với AI ở cấp độ đơn giản nhất.
+ Thông tin sau khi bị đánh cắp sẽ được công nghệ Bigdata (dữ liệu lớn) phân tích, phân loại, và khai thác cho các mục đích sử dụng cụ thể.
+ ...
- Câu phủ định:
+ Trên thực tế đây không phải lần đầu tiên các nhà khoa học lên tiếng cảnh báo về viễn cảnh trí tuệ nhân tạo trở nên nguy hiểm đối với con người.
+ Ông cũng nhận định loài người sẽ bị trí tuệ nhân tạo hoàn toàn thay thế trong 500 năm nữa nếu không cẩn trọng trong quá trình nghiên cứu và phát triển công nghệ nguy hiểm này.
+ Tuy nhiên, với công nghệ AI hiện nay, điều này không còn là viễn cảnh quá xa xôi mà hoàn toàn có thể trở thành hiện thực.
+ ...
Câu 11 [822748]: Phân tích sự phù hợp giữa lí lẽ và bằng chứng; giữa lí lẽ với luận điểm; giữa luận điểm và luận đề trong văn bản.
- Lựa chọn một minh chứng (xem lại và tham khảo Câu 9) để chứng minh sự phù hợp giữa lí lẽ và bằng chứng; giữa lí lẽ với luận điểm; giữa luận điểm và luận đề trong văn bản. Chẳng hạn:
+ Luận điểm: Nguy cơ AI trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống:
• Lí lẽ: AI có thể được thiết kế sai lệch hoặc được “huấn luyện” (training) thông qua cơ chế học máy (machine learning) không đúng cách và có thể thực hiện những hành động không mong muốn, gây thiệt hại cho con người và môi trường.
• Bằng chứng: Với cơ chế học máy, AI ngày càng trở nên thông minh hơn. Khi trí tuệ nhân tạo đạt mức độ thông minh mà từ chỗ hỗ trợ các hệ thống quan trọng như điện lực, giao thông, y tế, tài chính..., nó có thể làm chủ và kiểm soát toàn bộ các hệ thống này và tự ra quyết định, thực hiện các quyết định đó trong các tình huống khẩn cấp...
- Tác dụng của sự phù hợp giữa lí lẽ và bằng chứng; giữa lí lẽ với luận điểm; giữa luận điểm và luận đề trong văn bản: tạo nên tính chặt chẽ, lô gích, thuyết phục cho lập luận.
+ Luận điểm: Nguy cơ AI trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống:
• Lí lẽ: AI có thể được thiết kế sai lệch hoặc được “huấn luyện” (training) thông qua cơ chế học máy (machine learning) không đúng cách và có thể thực hiện những hành động không mong muốn, gây thiệt hại cho con người và môi trường.
• Bằng chứng: Với cơ chế học máy, AI ngày càng trở nên thông minh hơn. Khi trí tuệ nhân tạo đạt mức độ thông minh mà từ chỗ hỗ trợ các hệ thống quan trọng như điện lực, giao thông, y tế, tài chính..., nó có thể làm chủ và kiểm soát toàn bộ các hệ thống này và tự ra quyết định, thực hiện các quyết định đó trong các tình huống khẩn cấp...
- Tác dụng của sự phù hợp giữa lí lẽ và bằng chứng; giữa lí lẽ với luận điểm; giữa luận điểm và luận đề trong văn bản: tạo nên tính chặt chẽ, lô gích, thuyết phục cho lập luận.
Câu 12 [822750]: Chỉ ra một câu trong văn bản thể hiện ý kiến chủ quan của người viết.
Thí sinh chỉ ra một câu trong văn bản thể hiện ý kiến chủ quan của người viết. Chẳng hạn: Trên thực tế, những gì Chat GPT đang làm cho thấy AI ở chừng một mực nào đó đã và đang trở nên nguy hiểm hơn rất nhiều so với những gì con người từng nghĩ.
Câu 13 [822751]: Chọn và nêu tác dụng của một bằng chứng khách quan và một ý kiến đánh giá chủ quan (nếu có) trong văn bản.
Thí sinh tự do chọn và nêu tác dụng của một bằng chứng khách quan và một ý kiến đánh giá chủ quan (nếu có) trong văn bản. Chẳng hạn:
- Bằng chứng khách quan và ý kiến đánh giá chủ quan:
+ Bằng chứng khách quan: Vụ việc hệ thống mạng của Văn phòng Quản lí nhân sự (OPM) chính phủ Mỹ bị tấn công bởi tin tặc... (dữ liệu cá nhân chi tiết và rất nhạy cảm của 21,5 triệu quan chức tại chức và đã nghỉ hưu của Mỹ, thông tin về vợ/chồng của họ, dữ liệu về những người từng nộp đơn xin việc vào cơ quan chính phủ như tình trạng sức khỏe, nơi cư trú, công việc, vân tay và thông tin tài chính đã lọt vào tay tin tặc).
+ Ý kiến đánh giá chủ quan: Thế nhưng có một thực tế còn đáng sợ hơn khi CIA phát hiện ra rằng đối tượng đánh cắp dữ liệu OPM đã sử dụng công nghệ trí tuệ nhân tạo để rà soát, fake (làm giả) thông tin cá nhân, tạo lập các điệp viên ảo để đánh cắp dữ liệu.
- Tác dụng của bằng chứng khách quan và ý kiến chủ quan:
+ Bằng chứng khách quan giúp người viết chứng minh nguy cơ vi phạm quyền riêng tư khi trí tuệ nhân tạo phát triển không được kiểm soát.
+ Ý kiến chú quan giúp người viết bày tỏ được mối lo ngại trước hệ luỵ khôn lường của nguy cơ vi phạm quyền riêng tư khi trí tuệ nhân tạo phát triển không được kiểm soát.
- Bằng chứng khách quan và ý kiến đánh giá chủ quan:
+ Bằng chứng khách quan: Vụ việc hệ thống mạng của Văn phòng Quản lí nhân sự (OPM) chính phủ Mỹ bị tấn công bởi tin tặc... (dữ liệu cá nhân chi tiết và rất nhạy cảm của 21,5 triệu quan chức tại chức và đã nghỉ hưu của Mỹ, thông tin về vợ/chồng của họ, dữ liệu về những người từng nộp đơn xin việc vào cơ quan chính phủ như tình trạng sức khỏe, nơi cư trú, công việc, vân tay và thông tin tài chính đã lọt vào tay tin tặc).
+ Ý kiến đánh giá chủ quan: Thế nhưng có một thực tế còn đáng sợ hơn khi CIA phát hiện ra rằng đối tượng đánh cắp dữ liệu OPM đã sử dụng công nghệ trí tuệ nhân tạo để rà soát, fake (làm giả) thông tin cá nhân, tạo lập các điệp viên ảo để đánh cắp dữ liệu.
- Tác dụng của bằng chứng khách quan và ý kiến chủ quan:
+ Bằng chứng khách quan giúp người viết chứng minh nguy cơ vi phạm quyền riêng tư khi trí tuệ nhân tạo phát triển không được kiểm soát.
+ Ý kiến chú quan giúp người viết bày tỏ được mối lo ngại trước hệ luỵ khôn lường của nguy cơ vi phạm quyền riêng tư khi trí tuệ nhân tạo phát triển không được kiểm soát.
Câu 14 [822754]: Chọn và phân tích tác dụng của một thao tác lập luận giải thích/ chứng minh/ phân tích/ bình luận/ so sánh/ bác bỏ có trong văn bản.
Thí sinh chọn và phân tích tác dụng của một thao tác lập luận giải thích/ chứng minh/ phân tích/ bình luận/ so sánh/ bác bỏ có trong văn bản (xem lại Câu 8). Chẳng hạn:
- Thao tác lập luận được lựa chọn: giải thích.
Ví dụ: Người viết đã giải thích nguyên do đưa đến nguy cơ AI trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống bằng việc AI có thể được thiết kế sai lệch hoặc được “huấn luyện” (training) thông qua cơ chế học máy (machine learning) không đúng cách.
- Tác dụng: Thao tác lập luận giải thích đã được sử dụng nhằm lí giải một cách hợp lí, thuyết phục nguyên do AI có thể trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống. Theo đó, nguyên nhân được nhấn mạnh ở việc sử dụng AI một cách không trong sáng (thiết kế sai lệch, được “huấn luyện” (training) thông qua cơ chế học máy (machine learning) không đúng cách).
- Thao tác lập luận được lựa chọn: giải thích.
Ví dụ: Người viết đã giải thích nguyên do đưa đến nguy cơ AI trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống bằng việc AI có thể được thiết kế sai lệch hoặc được “huấn luyện” (training) thông qua cơ chế học máy (machine learning) không đúng cách.
- Tác dụng: Thao tác lập luận giải thích đã được sử dụng nhằm lí giải một cách hợp lí, thuyết phục nguyên do AI có thể trở thành có tổ chức, tự làm chủ và kiểm soát hệ thống. Theo đó, nguyên nhân được nhấn mạnh ở việc sử dụng AI một cách không trong sáng (thiết kế sai lệch, được “huấn luyện” (training) thông qua cơ chế học máy (machine learning) không đúng cách).
Câu 15 [822755]: Phân tích tác dụng của sự kết hợp các thao tác lập luận trong văn bản.
- Văn bản kết hợp vận dụng nhiều thao tác lập luận: phân tích, chứng minh, giải thích (xem lại Câu 8).
- Tác dụng của sự kết hợp các thao tác lập luận trong văn bản:
+ Tạo nên một hệ thống lập luận hợp lí, thuyết phục về vấn đề nghị luận (sự nguy hiểm và những nguy cơ tiềm ẩn khi trí tuệ nhân tạo được phát triển không kiểm soát); từ đó khơi gợi sự đồng tình của người đọc.
+ Góp phần thể hiện tư tưởng của người viết về vấn đề bàn luận: lo ngại khi trí tuệ nhân tạo không được phát triển một cách có kiểm soát; cảnh báo các nguy cơ tiềm ẩn.
+ Thể hiện cái nhìn sắc bén cùng trách nhiệm xã hội lớn lao của người viết trước trí tuệ nhân tạo - một thành quả của khoa học công nghệ nhân loại.
- Tác dụng của sự kết hợp các thao tác lập luận trong văn bản:
+ Tạo nên một hệ thống lập luận hợp lí, thuyết phục về vấn đề nghị luận (sự nguy hiểm và những nguy cơ tiềm ẩn khi trí tuệ nhân tạo được phát triển không kiểm soát); từ đó khơi gợi sự đồng tình của người đọc.
+ Góp phần thể hiện tư tưởng của người viết về vấn đề bàn luận: lo ngại khi trí tuệ nhân tạo không được phát triển một cách có kiểm soát; cảnh báo các nguy cơ tiềm ẩn.
+ Thể hiện cái nhìn sắc bén cùng trách nhiệm xã hội lớn lao của người viết trước trí tuệ nhân tạo - một thành quả của khoa học công nghệ nhân loại.
Câu 16 [822756]: Chỉ ra tính thuyết phục của văn bản.
Tính thuyết phục của văn bản được thể hiện ở hệ thống lí lẽ, ý kiến và dẫn chứng (bằng chứng khách quan) tác giả sử dụng để minh chứng cho vấn đề nghị luận (xem lại Câu 9).
Câu 17 [822758]: Chọn và nêu tác dụng của một câu khẳng định và một câu phủ định trong văn bản.
Thí sinh tự do chọn một câu khẳng định và một câu phủ định trong văn bản (tham khảo Câu 10), sau đó nêu tác dụng của câu khẳng định và câu phủ định đó. Chẳng hạn:
- Câu khẳng định: Trí tuệ nhân tạo có thể trở thành mối nguy đối với an ninh quốc gia và an toàn cá nhân.
⟶ Tác dụng: cảnh báo nguy cơ đe doạ vấn đề an ninh ở phạm vi quốc gia và cá nhân khi trí tuệ nhân tạo phát triển không được kiểm soát.
- Câu phủ định: Trên thực tế đây không phải lần đầu tiên các nhà khoa học lên tiếng cảnh báo về viễn cảnh trí tuệ nhân tạo trở nên nguy hiểm đối với con người.
⟶ Tác dụng: Nhấn mạnh sự lên tiếng (nhiều lần) của các nhà khoa học trước sự nguy hiểm của trí tuệ nhân tạo.
- Câu khẳng định: Trí tuệ nhân tạo có thể trở thành mối nguy đối với an ninh quốc gia và an toàn cá nhân.
⟶ Tác dụng: cảnh báo nguy cơ đe doạ vấn đề an ninh ở phạm vi quốc gia và cá nhân khi trí tuệ nhân tạo phát triển không được kiểm soát.
- Câu phủ định: Trên thực tế đây không phải lần đầu tiên các nhà khoa học lên tiếng cảnh báo về viễn cảnh trí tuệ nhân tạo trở nên nguy hiểm đối với con người.
⟶ Tác dụng: Nhấn mạnh sự lên tiếng (nhiều lần) của các nhà khoa học trước sự nguy hiểm của trí tuệ nhân tạo.
Câu 18 [822761]: Chỉ ra thái độ, quan điểm của người viết được thể hiện trong đoạn trích dưới đây:
Nguy cơ tiềm ẩn của trí tuệ nhân tạo phụ thuộc vào cách mà nó được sử dụng. Ban đầu AI được phát triển để trợ giúp con người trong công việc, đặc biệt là với các công việc nhàm chán lặp đi lặp lại như phân loại hình ảnh, rà soát thông tin... Tuy nhiên, với sự phát triển nhanh chóng của AI trong thời gian gần đây, các nhà khoa học và chuyên gia công nghệ lo ngại rằng nếu phát triển một cách không kiểm soát, hoặc được lập trình với mục đích không đúng đắn, trí tuệ nhân tạo có thể gây ra những hậu quả nghiêm trọng cho con người và xã hội.
Nguy cơ tiềm ẩn của trí tuệ nhân tạo phụ thuộc vào cách mà nó được sử dụng. Ban đầu AI được phát triển để trợ giúp con người trong công việc, đặc biệt là với các công việc nhàm chán lặp đi lặp lại như phân loại hình ảnh, rà soát thông tin... Tuy nhiên, với sự phát triển nhanh chóng của AI trong thời gian gần đây, các nhà khoa học và chuyên gia công nghệ lo ngại rằng nếu phát triển một cách không kiểm soát, hoặc được lập trình với mục đích không đúng đắn, trí tuệ nhân tạo có thể gây ra những hậu quả nghiêm trọng cho con người và xã hội.
Đoạn trích thể hiện thái độ lo ngại kèm theo đó là động thái cảnh báo con người về những hậu quả nghiêm trọng kèm theo khi AI bị phát triển một cách không kiểm soát, hoặc được lập trình với mục đích không đúng đắn.
Câu 19 [822767]: Văn bản khiến anh/chị nhận thức như thế nào về ảnh hưởng của trí tuệ nhân tạo tới tương lai việc làm của con người?
Trí tuệ nhân tạo làm biến mất nhiều công việc, đặc biệt là đối với những công việc lao động chân tay thuần túy, ít hàm lượng tri thức nhưng cũng mang đến cho con người nhiều cơ hội việc làm tốt. Song, để đáp ứng được những cơ hội việc làm mới do AI tạo ra, con người cần có tri thức về khoa học công nghệ hiện đại thì mới đáp ứng được yêu cầu công việc do AI tạo ra.
Câu 20 [822772]: Nêu một bài học mà anh/chị nhận được từ văn bản.
Từ văn bản, thí sinh có thể nêu một trong các bài học sau:
- Cần tỉnh táo và có sự chuẩn bị kĩ lưỡng để ứng phó với các nguy cơ tiềm ẩn từ việc phát triển trí tuệ nhân tạo không kiểm soát.
- Việc lạm dụng AI có thể đưa con người đến những cái giá rất đắt.
- ...
- Cần tỉnh táo và có sự chuẩn bị kĩ lưỡng để ứng phó với các nguy cơ tiềm ẩn từ việc phát triển trí tuệ nhân tạo không kiểm soát.
- Việc lạm dụng AI có thể đưa con người đến những cái giá rất đắt.
- ...
Câu 21 [822774]: Văn bản khiến anh/chị có cái nhìn như thế nào về thực trạng lạm dụng AI của giới trẻ hiện nay?
Nhiều người trong giới trẻ hiện nay đang lạm dụng AI (chẳng hạn sử dụng ChatGPT để thực hiện các bài tập được giao bằng cách sao chép nguyên xi gợi ý từ ứng dụng). Điều này khiến cho người trẻ mất đi năng lực tư duy một cách chủ động và dần trở nên thụ động, phụ thuộc vào AI.
Câu 22 [822778]: Anh/Chị có đồng tình với ý kiến cho rằng: Phụ thuộc quá mức vào nó (trí tuệ nhân tạo), dẫn đến hậu quả con người mất kiểm soát tình hình và suy giảm khả năng đưa ra quyết định. không? Vì sao?
Thí sinh cần bày tỏ sự đồng tình với ý kiến cho rằng: Phụ thuộc quá mức vào nó (trí tuệ nhân tạo), dẫn đến hậu quả con người mất kiểm soát tình hình và suy giảm khả năng đưa ra quyết định.; song cần lí giải ngắn gọn, thuyết phục nguyên do. Chẳng hạn:
Tôi đồng tình với ý kiến cho rằng Phụ thuộc quá mức vào nó (trí tuệ nhân tạo), dẫn đến hậu quả con người mất kiểm soát tình hình và suy giảm khả năng đưa ra quyết định. Bởi lẽ khi phụ thuộc quá mức vào trí tuệ nhân tạo, năng lực tư duy của con người sẽ bị hạn chế, chúng ta sẽ mất đi cơ hội trải nghiệm thực tiễn để tự rút ra những kinh nghiệm quý giá cho bản thân. Do đó, khi có tình huống xảy ra, chúng ta không thể chủ và sẽ rất lúng túng trong việc ứng phó với tình huống cấp bách.
Tôi đồng tình với ý kiến cho rằng Phụ thuộc quá mức vào nó (trí tuệ nhân tạo), dẫn đến hậu quả con người mất kiểm soát tình hình và suy giảm khả năng đưa ra quyết định. Bởi lẽ khi phụ thuộc quá mức vào trí tuệ nhân tạo, năng lực tư duy của con người sẽ bị hạn chế, chúng ta sẽ mất đi cơ hội trải nghiệm thực tiễn để tự rút ra những kinh nghiệm quý giá cho bản thân. Do đó, khi có tình huống xảy ra, chúng ta không thể chủ và sẽ rất lúng túng trong việc ứng phó với tình huống cấp bách.