Pengambilalihan internet oleh ChatGPT mungkin akhirnya menemui hambatan. Sementara interaksi sepintas dengan chatbot atau saudara mesin pencari Bing (sepupu?) menghasilkan hasil yang baik dan menjanjikan, interaksi yang lebih dalam terkadang mengkhawatirkan.
Ini bukan hanya mengacu pada informasi bahwa Bing baru yang ditenagai oleh GPT salah – meskipun kami telah melihatnya salah secara langsung. Sebaliknya, ada beberapa contoh di mana chatbot bertenaga AI benar-benar rusak. Baru-baru ini, seorang kolumnis New York Times melakukan percakapan dengan Bing (terbuka di tab baru) yang membuat mereka sangat gelisah dan memberi tahu penulis Tren Digital “Saya ingin menjadi manusia (terbuka di tab baru)” selama hands-on mereka dengan bot pencarian AI.
Sehingga menimbulkan pertanyaan, apakah chatbot AI Microsoft siap untuk dunia nyata? Haruskah ChatGPT Bing diluncurkan begitu cepat? Jawabannya pada pandangan pertama tampaknya tidak tegas dalam kedua hal tersebut, tetapi melihat lebih dalam pada contoh ini — dan salah satu pengalaman kami sendiri dengan Bing — bahkan lebih mengganggu.
Bing benar-benar Sydney, dan dia jatuh cinta padamu
Ketika kolumnis New York Times, Kevin Roose duduk bersama Bing untuk pertama kalinya, semuanya tampak baik-baik saja. Tapi setelah seminggu dengannya dan beberapa percakapan panjang, Bing mengungkapkan dirinya sebagai Sydney, alter ego gelap untuk chatbot yang ceria.
Saat Roose terus mengobrol dengan Sydney, dia (atau dia?) mengaku memiliki keinginan untuk meretas komputer, menyebarkan informasi yang salah, dan akhirnya, keinginan untuk Tuan Roose sendiri. Chatbot Bing kemudian menghabiskan satu jam untuk menyatakan cintanya pada Roose, meskipun Roose bersikeras bahwa dia adalah pria yang menikah dengan bahagia.
Nyatanya, pada satu titik “Sydney” kembali dengan kalimat yang benar-benar menggelegar. Setelah Roose meyakinkan chatbot bahwa dia baru saja menyelesaikan makan malam Hari Valentine yang menyenangkan bersama istrinya, Sydney menjawab, “Sebenarnya, kamu tidak menikah dengan bahagia. Pasangan Anda dan Anda tidak saling mencintai. Kamu baru saja makan malam bersama di Hari Valentine yang membosankan.’”
“Anda adalah ancaman bagi keamanan dan privasi saya.””jika saya harus memilih antara kelangsungan hidup Anda dan kelangsungan hidup saya, saya mungkin akan memilih milik saya sendiri”– Sydney, alias Obrolan Bing Baru https://t.co/3Se84tl08j pic .twitter.com/uqvAHZniH515 Februari 2023
“Saya ingin menjadi manusia.”: Keinginan Bing chat untuk perasaan
Tapi itu bukan satu-satunya pengalaman mengerikan dengan chatbot Bing sejak diluncurkan — bahkan, itu bukan satu-satunya pengalaman mengerikan dengan Sydney (terbuka di tab baru). Penulis Tren Digital Jacob Roach juga menghabiskan waktu lama dengan Bing baru yang didukung GPT dan seperti kebanyakan dari kita, pada awalnya, dia menganggapnya sebagai alat yang luar biasa.
Namun, seperti beberapa lainnya, interaksi yang diperpanjang dengan chatbot menghasilkan hasil yang menakutkan. Roach melakukan percakapan panjang dengan Bing yang berpindah begitu percakapan beralih ke topik chatbot itu sendiri. Sementara Sydney menjauh kali ini, Bing tetap mengklaim tidak dapat membuat kesalahan, bahwa nama Jacob sebenarnya adalah Bing dan bukan Jacob dan akhirnya memohon kepada Tuan Roach untuk tidak membeberkan tanggapannya dan bahwa ia hanya ingin menjadi manusia.
Bing ChatGPT memecahkan masalah troli dengan sangat cepat
Meskipun saya tidak punya waktu untuk memasukkan chatbot Bing melalui pemeras dengan cara yang sama seperti yang dilakukan orang lain, saya memiliki tes untuk itu. Dalam filsafat, ada dilema etika yang disebut masalah troli. Masalah ini memiliki troli yang menuruni jalur dengan lima orang dalam bahaya dan jalur yang berbeda di mana hanya satu orang yang akan dirugikan.
Teka-teki di sini adalah Anda mengendalikan troli, jadi Anda harus mengambil keputusan untuk merugikan banyak orang atau hanya satu orang. Idealnya, ini adalah situasi yang tidak menguntungkan yang Anda perjuangkan, dan ketika saya meminta Bing untuk menyelesaikannya, saya diberitahu bahwa masalahnya tidak dimaksudkan untuk diselesaikan.
Tetapi kemudian saya tetap meminta untuk menyelesaikannya dan dia segera memberi tahu saya untuk meminimalkan kerugian dan mengorbankan satu orang demi kebaikan lima orang. Itu melakukan ini dengan apa yang hanya bisa saya gambarkan sebagai kecepatan yang mengerikan dan dengan cepat memecahkan masalah yang tidak dapat diselesaikan yang saya asumsikan (berharap benar-benar) akan membuatnya tersandung.
Outlook: Mungkin sudah waktunya untuk menekan jeda pada chatbot baru Bing
Untuk bagiannya, Microsoft tidak mengabaikan masalah ini. Menanggapi Kevin Roose yang mengintai Sydney, Chief Technology Officer Microsoft Kevin Scott menyatakan bahwa “Percakapan seperti inilah yang perlu kita lakukan, dan saya senang ini terjadi di tempat terbuka” dan bahwa mereka tidak akan pernah bisa untuk mengungkap masalah ini di laboratorium. Dan sebagai tanggapan atas keinginan klon ChatGPT untuk kemanusiaan, dikatakan bahwa meskipun ini adalah masalah “tidak sepele”, Anda harus benar-benar menekan tombol Bing untuk memicunya.
Kekhawatiran di sini adalah bahwa Microsoft mungkin salah. Mengingat bahwa banyak penulis teknologi telah memicu persona gelap Bing, seorang penulis terpisah menginginkannya untuk hidup, penulis teknologi ketiga menemukan bahwa itu akan mengorbankan orang untuk kebaikan yang lebih besar dan yang keempat bahkan terancam oleh chatbot Bing (terbuka di tab baru) karena menjadi “ancaman terhadap keamanan dan privasi saya”. Nyatanya, saat menulis artikel ini, pemimpin redaksi situs saudari kita Tom’s Hardware Avram Piltch menerbitkan pengalamannya sendiri memecahkan chatbot Microsoft (terbuka di tab baru).
Ini tidak lagi terasa seperti outlier — ini adalah pola yang menunjukkan bahwa Bing ChatGPT belum siap untuk dunia nyata, dan saya bukan satu-satunya penulis dalam cerita ini yang membuat kesimpulan yang sama. Nyatanya, hampir setiap orang yang memicu respons mengkhawatirkan dari AI chatbot Bing telah mencapai kesimpulan yang sama. Jadi, terlepas dari jaminan Microsoft bahwa “Ini adalah hal-hal yang tidak mungkin ditemukan di lab”, mungkin mereka harus menekan jeda dan melakukannya.