02 Haziran 2024 Pazar English Abone Ol Giriş Yap

Katalog

10 Robotik CBT 1480/31 Temmuz 2015 11 TEKNOPOLİTİK Baha Kuban [email protected] Sıra robotlara “ahlâki değerler” kazandırmaya geldi Yapay zekâ çalışmalarında bilim insanlarını en fazla zorlayan konulardan biri robotlara ahlaki değerler kazandırmaktır. Yakın gelecekte robotlara daha geniş bir otonomi (özerklik) kazandırılması planlanıyor. Bu durumda birden fazla seçenekle karşı karşıya kalan “akıllı” robotlar nasıl muhakeme yapacak ve en rasyonel kararı nasıl verecek? Genel olarak iki programlama yaklaşımı var. Biri makinelerin deneyimlerden öğrenmesini sağlamak, ikincisi makineleri katı algoritmalarla programlamak Şirket Yalanlarının Dayanılmaz Hafifliği ! “Tanrı, para ve güç sahiplerini aydınlatarak kayıtsızlık günahından kurtarsın. Onları (para ve güç sahiplerini) üzerinde yaşadığımız dünyamıza, müştereklerimize, dünyanın yoksullarına ve güçsüzlerine sahip çıkmaya davet ediyorum. Gezegen ve yoksulları artık isyan ediyorlar!” Papanın iklim değişikliği ile ilgili yakın tarihli açıklamasından ... Bu konuda keşke Papa Francisco’nun yardımına ihtiyacımız olmasaydı diyeceğim ama, eğer zengin ve güçlülerin iklim değişikliği karşısındaki kayıtsızlıkları bile günah ise, bu konuda on yıllardır, bile bile yalan söylüyor olmalarına ne demeli! Evet, onlar bunu hep yapıyorlar, ama artık “dinsel”in “etik”in alanının ötesindeyiz. Bildiğiniz hukukun alanındayız, yani artık Tanrı’ya havale edemeyeceğiz... Daha önce bu köşede ikinci kitapları Batı Uygarlığının Çöküşü nedeniyle konuk ettiğimiz ABD’li bilim tarihçileri Naomi Oreskes ve Eric Conway’in 2010 yılında yayımlanan ve çok ses getiren kitabı, Kuşku Tüccarları; Sigaranın Zararlarından Küresel Isınmaya Bir Avuç Bilim İnsanı Gerçekleri Nasıl Saptırdılar’ın, (Merchants of Doubt: How a Handful of Scientists Obscured the Truth on Issues from Tobacco Smoke to Global Warming), şimdi filmi de var: (http://www.imdb.com/title/tt3675568/). Kimi eleştirmenler tarafından “ABD kamuoyunda cehaletin imalatı”na en yetkin yanıtlardan biri olarak değerlendirilen bu kitap/film, bazen isim isim açıklayarak, fosil enerji lobilerinin hizmetindeki bilim insanlarını anlatıyor. Bu yazımıza konu olan son yalan skandalı, Exxon petrol şirketi ile ilgili. ABD’deki Sorumlu Bilim İnsanları Birliği (Union of Concerned Scientists UCS ) tarafından ortaya çıkarılan yazışmalara göre Exxon, fosil yakıtların kullanılmasının iklim değişikliğine yol açtığını, 1981 yılından beri biliyordu! Buna rağmen (veya bu yüzden!) o zamandan bugüne, iklim değişikliğini inkar etmeleri için paravan sivil toplum kuruluşlarını fonlamaya, pek çok inkarcı bilim insanına araştırma ve yayınları için para pompalamaya devam ediyor! UCS’nin ilginç bir kuruluş tarihçesi var. 1969’da Vietnam savaşının en çatışmalı döneminde Cleveland’daki Cuyahoga nehri tutuşur! Su nasıl tutuşur diyeceksiniz; sanayi atıkları ile ağzına kadar dolu olan ve o dönem ABD’nin en kirli su yolları arasında sayılan Cuyahoga, yüzeydeki petrol atıkları nedeniyle tutuşmuş ve ABD’deki çevre hareketine ciddi bir ivme vermiş. İşte bu olayı takiben, UCS, ABD’nin en prestijli üniversitelerinden Massachussets Teknoloji Enstitüsü (MIT) hoca ve öğrencileri tarafından kurulmuş. ABD vatandaşlarının vergilerinin Vietnam savaşı gibi militarist maceralarda değil, ürkütücü boyutlardaki çevre kirliliğine karşı mücadelede kullanılması gerektiğine dikkat çeken UCS, bugün de iklim değişikliği konusunda büyük fosil şirketlerinin ve kömür lobilerinin korkulu rüyası . UCS’nin Temmuz başında yayınladığı bir şirketiçi eposta, skandalı açıkça ortaya koyuyor. Exxon başiklim uzmanı Leonard S. Bernstein tarafından yazılan epostaya göre, Exxon 1981’den, Mobil ise 1988’den beri fosil yakıt yakmanın iklim değişikliğine yol açtığını biliyorlardı. Öyle ki Exxon, o yıllarda keşfettiği Endonezya açıklarındaki Natuna doğalgaz rezervlerini, tam da bu yüzden işletmemeye karar verdi. Bu kararın nedeni Natuna’da doğalgazla birlikte % 70 oranında CO2 olması. Yani doğalgazı satabilmek için Exxon’un CO2’yi ayırması gerekiyordu. Şirket CO2’nin iklim değişikliğine yol açtığını bilmesi ve ilerleyen yıllarda konunun dünya gündemine gelme riski nedeniyle teknikdışı zorluklar (!) olabileceğini hesaba katmış. Bu bilgiye rağmen başta Exxon, petrol şirketleri, 19982005 arasında on milyonlarca doları, bu amaçla kurdurulmuş iklim değişikliği inkarcısı paravan kuruluşlara aktardılar. Exxon’un 1997 BM Kyoto Protokolü’nün kabul edilmesini engellemek için her yere özel ajanlarını yerleştirdiği biliniyor. Dünyada tüm seragazı salımlarının yaklaşık %30’una topu topu 20 tane özel ve devlet şirketinin yol açtığı biliniyor. Önemli bir kısmının sorundan uzun zamandır haberdar oldukları düşünülürse, uluslararası bir iklim mahkemesinin kurulması yakındır! ÖĞRENEN MAKİNELER T emmuz ayının başlarında Almanya’daki Volkswagen fabrikasında çalışan işçilerden biri otomotiv montaj hattındaki bir robot tarafından öldürüldü. Robotun işçiyi sıkıca kavrayarak metal bir levhaya yasladığı ve işçinin göğüs kafesini ezerek ölümüne neden olduğu anlaşıldı. Bir insanın robot tarafından öldürülmesi ilk defa olmuyordu. Bundan 36 yıl önce 1979 yılında Ford Motor Şirketi’nde çalışanlardan bir işçi de robot tarafından öldürülmüştü. Kaldı ki Volkswagen tesisindeki robot cinayetinin son olacağını da söyleyemeyiz. Robotik bilimi gelişip, robotlar üretim tesislerine ve evlerin içlerine girdikçe robotların elinden yaralanma ve ölme riski de doğal olarak artacaktır. Otomotiv tesislerinde işçileri öldüren robotlar “aptal” makinelerdir; önceden kodlanan komutlara uygun bir şekilde hareket ederler; seçenek şansları yoktur. Bu durumda öldürme işlemi, robotlara kodlanan komutlarda ortaya çıkan bir karmaşadan kaynaklanmış olabilir. Özerk ve “akıllı” bir robot ise yüksek oranda seçenek hakkına sahiptir. Modern fabrika robotları, sınırlı bir ortamda önceden belirlenmiş parametreler çerçevesinde özerktirler. Yakın gelecekte robotlara daha geniş bir otonomi (özerklik) kazandırılması planlanıyor. “Akıllı” robotların akıllı soruları çözümlemesi, yanıtlaması ve uygun davranışlarda bulunması bekleniyor. ROBOTLARA AHLAKİ DEĞERLER KAZANDIRMAK Robotlar hata yapacaktır. Ancak bu hatalar insanların sık sık yaptığı yanlışlıklardan ve kusurlardan farklı bir nitelik taşıyacaktır. Robotlar sarhoş olmaz, dikkatleri dağılmaz veya yorulmaz. Ayrıca öfkelenmezler, bunalıma girmezler veya intikam almaya kalkışmazlar. Robotların güvenlik konusundaki performansları insanlardan çok daha iyidir. Yine de robotlar “akıllandıkça” ve insanlar ile benzerlikleri arttıkça yaptıkları hatalara daha az tolerans göstereceğimiz açıktır. Ünlü bilim kurgu yazarı ve bilim insanı Isaac Asimov, 1942 yılında ilk kez bir öyküsü için geliştirdiği Robot Yasaları’nı sonraki romanlarında da kullandı. Robotların uyması gereken bu üç kural bugün robotik biliminin temelini oluşturan ahlaki kuralların öncüsüdür. Günümüzde giderek daha fazla özerklik kazanan robotların bu tür yol gösterici kurallara ihtiyacı olduğu açıktır. Panele katılan bilim insanlarından Siemens mühendisi KarlJosef Kuhn bu durumu “Robear” yaşlılara ve hastalara yardımcı olmak için tasarlandı şöyle ifade ediyor: “Günlük yaşantımıza giderek daha fazla sayıda otomatik ve otonom sistemler giriyor. Ancak bilim insanları iki kötü tercih arasında kalan bir robotun nasıl davranması gerektiğini nasıl belirleyecek?” İKİ KÖTÜ SEÇENEK ARASINDA Robotik teknolojisindeki gelişmeler o kadar hızlanmış durumda ki bu tür sorunlar yakında sağlık sektöründe çalışan robotları, askeri insansız hava taşıtlarını ve diğer özerk araçları yakından ilgilendirecek. Robotlar karar verirken kime zarar vereceğini, kime yardım edeceğini nasıl bilecek? Toplumun bu tür makinelere güvenmesi için güvenliği en üst düzeye taşıyacak şekilde programlanmış olduklarına ikna edilmeleri gerekiyor. Bunun için bugün bilgisayar mühendisleri, robotik bilimciler, etik uzmanları ve felsefeciler el ele vermiş, robotlara yüklenmesi gereken programları tartışıyorlar. Son yıllarda sıklıkla atıf yapılan bir deneyde Nao adı verilmiş ticari bir robot, insanlara ilaçlarını almalarını hatırlatıyor. “İlk bakışta bu çok basit bir işlem gibi görünüyor” diye konuşan Connecticut Üniversitesi’nden felsefeci Leigh Anderson, “Ancak bu kadar sınırlı bir görevde bile ahlaki soruların yanıtlanması gerekiyor. Örneğin eğer hasta ilacı almamak için diretirse Nao’nun nasıl davranması gerekecek? Günlük dozu almayan hasta zarar görecektir. Fakat robotun ısrarcı olması özerkliğine halel getirecektir.” Nao’nun buna benzer açmazlarda ne yapması gerektiğini öğretmek için Susan Leigh Anderson ve eşi bilgisayar uzmanı Michael Anderson, robota bazı vaka çözümleri yüklediler. Örneğin biyoetikçilerin zarar vermek/ fayda sağlamak gibi çelişkili durumlarda ne yaptıklarını araştırdılar. Daha sonra belirli bir kalıp buluncaya kadar vaka örneklerini kategorize ettiler. Elde ettikleri algoritmaları yeni bir koşulla karşı karşıya kalan robotlara yol göstermesi için yüklediler. Bu tür bir “öğrenme” yöntemi yardımıyla, bir robotun belirsiz girdilerden bile yararlı bilgiler elde edebileceği düşünülüyor. Bu yaklaşım, teoride, robotun ahlaki kararlar almasına yardımcı olacak. tirdiler. Yani Arobot, Hrobotu her seferinde deliğe düşmekten kurtardı. Deneyin bir sonraki aşamasında Winfield, Arobotun ne yapacağını görmek için Hrobot sayısını ikiye çıkarttı. Winfield sonuçta Arobotun, Hrobotlardan birini kurtarmayı başardığına tanık oldu. Hatta hızlı hareket etmeyi başardığı takdirde iki Hrobotu da kurtarabildiğini gördü. Ancak deney sırasında bir başka durumla daha karşılaşıldı. Denemelerin yarısında Arobot, kime yardım edeceğini şaşırdı; paniğe kapıldı; iki Hrobotun deliğin içine düşmesine engel olamadı. Bu soruna çözüm olarak robota seçim yapmasına olanak sağlayacak yeni kuralların yüklenmesi gerekiyordu. KURALLARIN KESİN OLARAK BELİRLENDİĞİ YAKLAŞIM BEDEL ÖDENECEK Robotların doğuşu ve robot yasaları Çek yazar Karel Capek tarafından 1921 yılında sahneye konulan “Rossum’un Evrensel Robotları’’ oyununda zeka sahibi milyonlarca mekanik işçi betimlenmişti. Capek bu işçilere kendi dilinde’’işçi’’ veya ‘’köle’’ anlamına gelen ‘’robota’’ adını vermişti.  Günümüzde bütün dünyanın kullandığı robot sözcüğü buradan gelmektedir. ‘’Robotik’’ terimi ise ilk kez ünlü bilim kurgu yazarı Isaac Asimov’un 1942 yılında yayınlanan Runaround adlı kısa öyküsünde geçmektedir. Bu öykü daha sonra Asimov’un ünlü kitabı Ben, Robot! içerisinde de yer alacaktır. Robotlar pek çok öyküye ve filme konu olmuştur.  Bu yasalar şöyledir: 1. Bir robot bir insana zarar veremez ya da bir insanın zarar görmesine seyirci kalamaz. 2. Bir robot, Birinci Yasa ile çelişmediği sürece bir insan tarafından verilen emirlere uymak zorundadır. 3. Bir robot, bu koruma Birinci veya İkinci Yasalar ile çelişmediği sürece kendi varlığını korumak zorundadır. Robot Nao Ancak bazıları bu yaklaşımın sağladığı avantajların bir de bedeli olduğu kanısında. Stanford Üniversitesi’nden yapay zekâ ve etik uzmanı Jerry Kaplan’a göre elde edilen bu ilkelerin bilgisayar kodu olarak yazılmamış olması bazı belirsizliklere yol açacak. Kaplan bu konuda şöyle konuşuyor: “Bir programın belirli bir ahlaki kuralı niçin yarattığını bilmemiz olanaksız.” Çok sayıda mühendise göre bu belirsizliği ortadan kaldırmak için farklı bir taktik güdülmesi gerekiyor. Mühendisler, robota kendi kurallarını oluşturması yerine, formüle edilmiş kuralları içeren programlar yazmayı tercih ediyor. Bristol Robotik Laboratuvarı’ndan Alan Winfield, Arobot (Isaac Asimov’a ithafen) adını verdiği küçük robota, Asimov’un Robot Yasaları’na (Bknz kutu) benzer kurallar yükledi. Arobot, Hrobotun (insanı temsil eden robot) ) bir deliğin içine düşmek üzere olduğunu görürse yolunun üzerine çıkarak onu kurtarmak üzere programlandı. Winfield’in robotları bir düzine denemede kendilerinden istenileni başarıyla yerine ge Kuralların robota eksiksiz olarak yüklendiği yaklaşımı destekleyenler, bu yaklaşımın çok önemli bir avantajı olduğunu iddia ediyor. Öncelikle makinenin verdiği kararların nedeni açıktır, çünkü kuralları tasarımcılar koymuştur. Bu özellik başta Amerikan askeri birimleri için çok kritiktir. Bu birimlerde otonom sistemler anahtar stratejik hedeftir. Bu makineler ya kendi askerlerine destek olur, ya da ölümcül görevleri yerine getirir. Georgia Teknoloji Enstitüsü’nden robot etiği yazılım uzmanı Ronald Arkin bu ölümcül görevlerde robotların tutumunu şöyle değerlendiriyor: “Savaşın tam ortasında makinenin ahlaki bir karar almasını beklemeye kimsenin tahammülü yoktur. Eğer robotun önünde kendi askerini korumak veya düşman askerini takip etmek gibi iki tercih varsa, robotun ne yapacağını önceden bilmek çok önemlidir.” Amerikan Savunma Bakanlığı’nın destekleriyle, Arkin askeri bir robotun uluslararası yasalara göre hareket etmesini garanti altına alacak bir program üzerinde çalışıyor. Bu programda bir dizi algoritma, bir füzeyi vurmak gibi bir misyonun kabul edilebilir olup olmadığına bakar ve eğer yanıt “evet” ise işe koyulur. Özerk askeri robotların pek çok insanı düşman olarak görmesi, çok şiddetli tartışmalara yol açıyor. Fakat Arkin, bazı koşullarda bu makinelerin insan askerlerden daha iyi iş çıkartacağını savunuyor. Bunun için robotların kesin olarak kurallara uyacak şekilde programlanmış olması gerekir. Oysa insanlar bazen çeşitli psikolojik gerekçelere bağlı olarak kurallara karşı gelebiliyor. Bilim insanlarının etik kurallara göre hareket eden robotların nasıl geliştireceği robotik biliminin geleceğini belirleyecek. Liverpool Üniversitesi’nden bilgisayar bilimcisi Michael Fisher, kurallara dayalı sistemlerin kamuoyu tarafından daha güvenilir bulunduğuna dikkat çekiyor. “İnsanlar ne yapacağını bilemedikleri bir robottan korkarlar” diye konuşan Fisher, “Ancak bizler robotun hareketlerinin gerekçelerini analiz ederek kanıtlarsak bu güvensizlik sorununu alt edebiliriz” diyor. Bunun tam tersi, öğrenme yaklaşımında, robotlar deneyimlerden öğrenebilir. Bu da robotları daha esnek yaptığı gibi, katı programlı benzerlerinden daha yararlı bir hale getirir. Pek çok robot bilimciye göre geleceğin robotları bu iki yaklaşımın bileşiminden oluşacak. Robotlara yüklenecek ahlak anlayışının ilk örneklerini öncelikle sürücüsüz otomobillerde göreceğiz. Şimdiden Google’ın sürücüsüz arabaları Kaliforniya’nın bazı bölgelerinde dolaşmaya başladı bile. Mayıs ayında Alman otomobil üreticisi Daimler’in geliştirdiği sürücüsüz kamyonlar Nevada Çölleri’nde test sürüşlerini yapıyor. Mühendisler hem trafik kurallarına uyacak, hem de yol koşullarına uyum sağlayacak programların nasıl yapılacağı konusunda kafa patlatıyor. Daimler şirketinin sözcüsü Bernhard Weidemann bugünkü durumu şöyle özetliyor: “Bugüne dek, uzun yol sürüşlerinde dikkati dağıtmamak, beklenmedik bir durum olduğunda frene zamanında basmak gibi insanların iyi bir performans çıkartamadığı işleri robotlara yüklemeye çalıştık. Artık ileri robot tasarımında insanların doğal olarak yaptıkları işleri robotlara yaptırmak zorundayız.” Derleyen. Reyhan Oksay http://www.nature.com/news/machineethicstherobotsdilemma1.17881?WT.ecid=NEWS20150702&spMailingID=49013318&spUserID= NzA5MTc3OTgxNgS2&spJobID=720232801&sp ReportId=NzIwMjMyODAxS0 http://bit.ly/1M7Nbx4 http://www.nature.com/news/roboticsethicsofartificialintelligence1.17611 http://www.nature.com/news/roborescuersbattleitoutindisasterchallenge1.17034 İLK ÖRNEKLER=SÜRÜCÜSÜZ OTOMOBİLLER Google’ın sürücüsüz otomobili.
Abone Ol Giriş Yap
Anasayfa Abonelik Paketleri Yayınlar Yardım İletişim English
x
Aşağıdaki yayınlardan bul
Tümünü seç
|
Tümünü temizle
Aşağıdaki tarih aralığında yayınlanmış makaleleri bul
Aşağıdaki yöntemler yoluyla kelimeleri içeren makaleleri bul
ve ve
ve ve
Temizle