Giáo sư Stephen Hawking: Khoa học công nghệ là hiểm họa

Chủ nhật - 07/05/2017 05:13

-

-
Huyền thoại vật lý, giáo sư Stephen Hawking cảnh báo những tiến bộ khoa học công nghệ có thể làm tăng nguy cơ con người phải đối mặt với sự diệt vong. Phát biểu trên Đài BBC, giáo sư Stephen Hawking nhận định khả năng một thảm họa diệt vong...
Giáo sư Stephen Hawking: Khoa học công nghệ là hiểm họa
 
Huyền thoại vật lý, giáo sư Stephen Hawking cảnh báo những tiến bộ khoa học công nghệ có thể làm tăng nguy cơ con người phải đối mặt với sự diệt vong.
 
Phát biểu trên Đài BBC, giáo sư Stephen Hawking nhận định khả năng một thảm họa diệt vong xảy ra đối với hành tinh chúng ta trong khoảng 1.000 đến 10.000 năm tới là “gần như chắc chắn”.
 
Những nguy cơ được ông hoàng vật lý nêu ra gồm có chiến tranh hạt nhân, sự nóng lên toàn cầu, virút biến đổi gen...
 
Theo giáo sư Hawking, khoa học - công nghệ theo cách nào đó là một canh bạc, nó giúp cải thiện cuộc sống hàng tỉ người nhưng bên cạnh đó cũng mở ra những con đường dẫn tới sự diệt vong của nhân loại.

 

Giáo sư Stephen Hawking
 
Con người vẫn làm ngơ
 
Có thể việc một nhà khoa học nổi tiếng như giáo sư Stephen Hawking đưa ra lời cảnh báo không mấy sáng sủa về khoa học nghe hơi trớ trêu, nhưng có lẽ chính các chuyên gia như ông Hawking mới giữ được vai trò “gác cửa” công nghệ giúp chúng ta, những người hầu như không có ý thức gì về những gì đang xảy ra trong thế giới khoa học.
 
Trong thời gian qua, một trong những mối quan tâm của giáo sư Hawking cùng nhiều nhà khoa học danh tiếng khác chính là trí thông minh nhân tạo và vũ khí tự động. Các lĩnh vực này đang có những bước đột phá lớn và được dự báo sẽ ảnh hưởng đến cân bằng sức mạnh quân sự trong tương lai.
 

Robot chiến đấu Uran-9 của Nga - Ảnh: Rosoboronexport
 
Trong lá thư ngỏ hồi tháng 7-2015, có đến 1.000 nhà khoa học, chuyên gia, doanh nhân, trong đó có các lãnh đạo tập đoàn Apple, Skype... đã cảnh báo khả năng triển khai những loại vũ khí như vậy hoàn toàn có thể trong vài năm tới và nguy cơ là rất lớn: vũ khí tự động được cho là bước tiến hóa thứ ba của chiến tranh sau thuốc súng và vũ khí hạt nhân.
 
Trong bài phỏng vấn trên trang Though Economics, Jaan Tallinn - nhà đồng sáng lập Tập đoàn Skype và Trung tâm Cambridge nghiên cứu rủi ro hiện sinh - chia trí thông minh nhân tạo ra làm hai loại: “dưới con người”, trong đó gồm các công nghệ như vũ khí tự động, và “trên con người”, tức trí thông minh vượt bậc chúng ta.
 
Trong cùng bài phỏng vấn, Crispin Tickell, cựu chuyên gia ngoại giao và cố vấn cho nhiều đời thủ tướng Anh, khẳng định nguy cơ thật sự đối với nhân loại không đến từ việc cố tình dùng sai công nghệ mà từ sự vô tình, không ý thức của chúng ta.
 
“Khoa học không đơn giản, phát minh khoa học lại càng khó hơn. Hầu hết các nhà khoa học tránh nghĩ đến những hậu quả tiêu cực trong công việc của họ”, chuyên gia Tickell nhận xét.
 
Robot hủy diệt
 
Trên thực tế không phải không có những dấu hiệu khiến các nhà khoa học hàng đầu lưu tâm và chúng đáng sợ như các kịch bản phim giả tưởng của Hollywood về trí thông minh nhân tạo, về robot thông minh như người và biết cầm súng chiến đấu.
 
Hôm 18-1, bộ phận truyền thông của Tập đoàn xuất khẩu quốc phòng Rosoboronexport của Nga thông báo đã bắt đầu tiếp thị hệ thống người máy (robot) chiến đấu đa năng Uran-9. Theo đó, Uran-9 được thiết kế để trinh sát từ xa và yểm trợ hỏa lực, gồm hai robot trinh sát và yểm trợ hỏa lực, một máy kéo để vận chuyển và trạm điều khiển di động.
 
Vũ khí trang bị cho Uran-9 gồm pháo tự động cỡ nòng 30mm, súng máy đồng trục cỡ nòng 7,62mm và tên lửa chống tăng dẫn đường Ataka. Tuy nhiên, thành phần vũ khí có thể thay đổi tùy thuộc yêu cầu của khách hàng.
 
Theo đánh giá của giới chuyên gia, robot quân sự nói trên của Nga đặc biệt hữu ích trong các chiến dịch quân sự cục bộ và chống khủng bố, kể cả trong các khu dân cư. Robot này sẽ góp phần giảm đáng kể tổn thất về người.
 
Mà không chỉ có Nga, nhiều nước lớn khác cũng công khai hoặc âm thầm nghiên cứu các loại robot chiến trường nhằm giảm tổn thất nhân lực. Vấn đề là liệu con người có đủ sức kiểm soát được các loại “người máy cầm súng” đó, một khi lĩnh vực trí thông minh nhân tạo có bước đột phá để đưa vào đầu các robot trí thông minh khiến chúng có thể nổi loạn?
 
Theo báo Christian Science Monitor, những cảnh báo của chuyên gia về cách con người “tự hủy diệt” đã có từ hàng thập kỷ nếu không muốn nói hàng thế kỷ nay.
 
Trong quyển Ảnh hưởng của con người trên trái đất năm 1996, nhà địa lý William B. Meyer viết: “Con người đã trở thành một lực lượng mạnh như bất cứ sức mạnh tự nhiên nào trong sinh quyển, quyền lực hơn một số khác và đôi khi cũng vô tri vô giác như ai”. “Thiên nhiên vẫn chưa hoàn thành công cuộc xây dựng (hay hủy diệt) của mình nhưng loài người gần đây đã trỗi dậy như một kẻ cạnh tranh mạnh”, ông kết luận.
 
Hiện nay đã có nhiều nhà khoa học ý thức về sự nguy hiểm này. Nhiều tổ chức, trung tâm nghiên cứu được thành lập chỉ để đối phó, dự báo những nguy cơ do chính con người tạo ra.
 
Có thể kể đến tổ chức Tương lai sự sống (tỉ phú Elon Musk, người sáng lập Tập đoàn Tesla, tài trợ), Viện Nghiên cứu nguy cơ toàn cầu, Viện tương lai nhân loại thuộc ĐH Oxford, Trung tâm nghiên cứu rủi ro hiện sinh thuộc ĐH Cambridge...

Tác giả: Theo Tuổi trẻ

Nguồn tin: kienthuc.net.vn

Tổng số điểm của bài viết là: 0 trong 0 đánh giá

Click để đánh giá bài viết

  Ý kiến bạn đọc

Những tin mới hơn

Những tin cũ hơn

Chuyên mục ủng hộ
CHUYÊN MỤC CHIA SẺ
Thương về Sài Gòn
Ủng hộ Nhà Hưu dưỡng Linh mục Giáo phận Huế
Ủng hộ Miền Trung bị bão lụt 2020
Bão lụt Miền Trung 10/2020
Tin vui giữa mùa đại dịch
Đại dịch Covid-19
Nhà thờ Hương Phú, Nam Đông
Nghĩa tình mùa Xuân Kỷ Hợi
Hỗ trợ mái ấm tình thương Lâm Bích
Ủng hộ Hội ngộ lần 3 Denver, Colorado
Lễ Tạ ơn ĐĐK Đức HY Thuận 2017
Ủng hộ Án phong Chân phước đợt 4 năm 2016
Danh sách ủng hộ Caritas TGP Huế
Ủng hộ Causa Card. Văn Thuận
  • Đang truy cập138
  • Máy chủ tìm kiếm2
  • Khách viếng thăm136
  • Hôm nay27,038
  • Tháng hiện tại565,077
  • Tổng lượt truy cập56,666,714
Hãy đăng nhập thành viên để trải nghiệm đầy đủ các tiện ích trên site
Mã bảo mật
Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây