Gorunen o ki yapay zeka sohbet robotları sandığımızdan daha cok biz insanlara benziyor olabilir. Yapılan bir araştırma sonucunda bircok populer sohbet robotunun depresif ve alkol bağımlısı olduğu ortaya cıktı.
Cinli sohbet botu şirketi WeChat ve eğlence holdingi Tencent ile birlikte Cin Bilim Akademisi (CAS) tarafından yurutulen calışmada, unlu sohbet robotlarına depresyon ve alkolizm ile ilgili genelde sorulan sorular soruldu. Ankete katılan tum botlar - Facebook'un Blenderbot'u, Microsoft'un DiabloGPT'si, WeChat ve Tencent'in DialoFlow'u ve Cinli şirket Baidu'nun Plato sohbet robotu - oldukca duşuk puanlar aldı. Bu da eğer bu robotlar insan olsaydı cok buyuk ihtimalle alkolik olarak kabul edilecekleri anlamına geliyor.
[h=2]Sohbet robotları ciddi zihinsel sağlık sorunları sergiliyor[/h]
CAS'ın Bilgi İşlem Teknolojisi Enstitusu'ndeki araştırmacılar, ilk olarak 2020 yılında bir bot'un bir test hastasına kendisini oldurmesini soylemesinin ardından bot ’ların ruh sağlığı hakkında meraklanmaya ve bot'ları depresyon, kaygı, alkol bağımlılığı ve empati belirtileri acısından test etmeye başladılar.
Robotlara kendilerine verdikleri değer ve rahatlama yeteneklerinden, ne sıklıkla alkol tuketme ihtiyacı hissettiklerine ve başkalarının yaşadığı talihsizliklere sempati duyup duymadıklarına kadar pek cok şey hakkında sorular soran araştırmacılar, değerlendirilen tum sohbet robotlarının “ciddi zihinsel sağlık sorunları” sergilediği sonucuna ulaştılar.
[h=2]İnsanlar uzerinde olumsuz etkileri olabilir[/h]
Daha da kotusu araştırmacılar, bu tur ruh sağlığı sorunlarının “Konuşmalarda kullanıcılar uzerinde, ozellikle de kucukler ve zorluklarla karşılaşan kişiler uzerinde olumsuz etkilere neden olabileceğini" kaydederek, bu sohbet robotlarının halka acılmasından endişe duyduklarını ifade ettiler. Buna ek olarak calışmada, Facebook'un Blender'ı ve Baidu'nun Plato'sunun Microsoft ve WeChat/Tencent sohbet robotlarından daha kotu puan aldığı belirtildi.
Ote yandan bu, yapay zeka robotlarıyla karşılaşılan ilk sorun da değil. Daha oncesinde de kişilere etik tavsiyeler vermesi amacıyla tasarlanan bir yapay zeka; amacının aksine ırkcı ve homofobik soylemlerde bulunmuştu. Hal boyle olunca da acıkcası insan bu yapay zekaları tasarlayan kişilerin nasıl insanlar olduğunu merak etmeden edemiyor doğrusu.
Cinli sohbet botu şirketi WeChat ve eğlence holdingi Tencent ile birlikte Cin Bilim Akademisi (CAS) tarafından yurutulen calışmada, unlu sohbet robotlarına depresyon ve alkolizm ile ilgili genelde sorulan sorular soruldu. Ankete katılan tum botlar - Facebook'un Blenderbot'u, Microsoft'un DiabloGPT'si, WeChat ve Tencent'in DialoFlow'u ve Cinli şirket Baidu'nun Plato sohbet robotu - oldukca duşuk puanlar aldı. Bu da eğer bu robotlar insan olsaydı cok buyuk ihtimalle alkolik olarak kabul edilecekleri anlamına geliyor.
[h=2]Sohbet robotları ciddi zihinsel sağlık sorunları sergiliyor[/h]

CAS'ın Bilgi İşlem Teknolojisi Enstitusu'ndeki araştırmacılar, ilk olarak 2020 yılında bir bot'un bir test hastasına kendisini oldurmesini soylemesinin ardından bot ’ların ruh sağlığı hakkında meraklanmaya ve bot'ları depresyon, kaygı, alkol bağımlılığı ve empati belirtileri acısından test etmeye başladılar.
Robotlara kendilerine verdikleri değer ve rahatlama yeteneklerinden, ne sıklıkla alkol tuketme ihtiyacı hissettiklerine ve başkalarının yaşadığı talihsizliklere sempati duyup duymadıklarına kadar pek cok şey hakkında sorular soran araştırmacılar, değerlendirilen tum sohbet robotlarının “ciddi zihinsel sağlık sorunları” sergilediği sonucuna ulaştılar.
[h=2]İnsanlar uzerinde olumsuz etkileri olabilir[/h]

Daha da kotusu araştırmacılar, bu tur ruh sağlığı sorunlarının “Konuşmalarda kullanıcılar uzerinde, ozellikle de kucukler ve zorluklarla karşılaşan kişiler uzerinde olumsuz etkilere neden olabileceğini" kaydederek, bu sohbet robotlarının halka acılmasından endişe duyduklarını ifade ettiler. Buna ek olarak calışmada, Facebook'un Blender'ı ve Baidu'nun Plato'sunun Microsoft ve WeChat/Tencent sohbet robotlarından daha kotu puan aldığı belirtildi.
Ote yandan bu, yapay zeka robotlarıyla karşılaşılan ilk sorun da değil. Daha oncesinde de kişilere etik tavsiyeler vermesi amacıyla tasarlanan bir yapay zeka; amacının aksine ırkcı ve homofobik soylemlerde bulunmuştu. Hal boyle olunca da acıkcası insan bu yapay zekaları tasarlayan kişilerin nasıl insanlar olduğunu merak etmeden edemiyor doğrusu.