Pinokyo'nun Mirası: Yapay Zeka ve EU ACT ile Risk Yönetimi
Pinokyo'nun Mirası: Yapay Zeka ve EU ACT ile Risk Yönetimi

Pinokyo'nun Mirası: Yapay Zeka ve EU ACT ile Risk Yönetimi

Yapay Zeka (AI), çağımızın en çarpıcı buluşlarından biri olarak karşımıza çıkarken, bu alandaki gelişmeler aynı zamanda pek çok riski de beraberinde getiriyor. Bu riskleri anlamak ve kavramak için, "Pinokyo" masalından esinlenerek bir benzetme yapabiliriz. Masal, marangoz olan Geppetto usta tarafından tahtadan yaptığı Pinokyo'nun gerçek bir çocuk olma arzusuyla başlayan serüvenlerini anlatır. Geppetto ustanın saf niyeti ve yaratıcılığı, Pinokyo'nun bazen beklenmedik ve tehlikeli durumlarla karşılaşmasına neden olur. Yapay Zeka teknolojisi de, Pinokyo gibi kontrol edilmediği ve belli kurallar belirlenmediği sürece tehlikeli sonuçlar doğurabilir.

Yazının tamamı için tıklayın.

AB Yapay Zeka Yasası nedir?

Son yıllarda ChatGPT, Google Bard gibi üretken yapay zeka ürünlerinin ortaya çıkmasıyla birlikte yapay zekaya yönelik ilgi herkes tarafından arttı. Bununla birlikte yapay zeka üzerinden edinilen bilgilerde herhangi bir denetleme ve filtreleme olmaması da çeşitli tehlikeler ortaya çıkarmaktadır.

Avrupa Birliği Konseyi, dünya genelinde yapay zeka ile ilgili ilk kapsamlı düzenlemeleri içeren “Yapay Zeka Yasası”nın üye ülkeler tarafından onaylandığını duyurdu. Onaylanan yasa içerisinde, yüz tanıma veri tabanları oluşturmak için internetten veya CCTV görüntülerinden hedef gözetmeksizin yüz görüntülerinin alınması da dahil olmak üzere vatandaşların haklarını tehdit eden belirli yapay zeka uygulamaları yasaklanmaktadır. İş yerlerinde ve okullarda duygu tanıma, bir kişinin profiline veya özelliklerine dayalı tahmin eden, insan davranışını manipüle eden veya insanların zayıflıklarından faydalanan yapay zeka uygulamaları da yasaklanacaktır.

Kolluk kuvvetlerinin kullandığı biyometrik tanımlama sistemlerinin genel kullanımı yasaklanmış olup sadece belirli tanımlı durumlar için kullanımına izin verilmektedir. Bu belirli durumlara bir terör saldırısının önlenmesi gibi durumlar örnek verilebilir. 

Yapay Zeka Yasasının Yürürlüğe Girmesiyle Temel Hedefler: 

  • Güvenlik ve Şeffaflık: YZ sistemlerinin güvenli ve şeffaf olmasını sağlamak.
  • Temel Hakların Korunması: Bireylerin temel haklarının korunmasını sağlamak.
  • Sorumluluk ve Hesap Verebilirlik: YZ sistemlerinin neden olduğu zararlar için sorumluluk ve hesap verebilirlik mekanizmaları oluşturmak.
  • Yenilik ve Rekabetçiliği Teşvik Etmek: Yenilikçi YZ uygulamalarını teşvik etmek ve Avrupa’nın rekabetçiliğini artırmak.

Yazının tamamı için tıklayın.

Products Affected by the Cyber Resilience Act

Riskler ve Gelişmeler ile ilgili dikkat çekici haberler

  • 4 Haziran'da, OpenAI ve Google Deepmind şirketinde çalışan ve çalışmış olan 13 kişilik bir grup, önde gelen yapay zeka şirketlerinin yapay zeka sistemlerini yeterince güvenli hale getirmek için yeterli çabayı göstermediğini bunun yerine kâr ve büyümeyi önceliklendirdikleri konusunda uyarıda bulunan açık mektup yayınladı.
  • OpenAI şirketi, tüm OpenAI projeleri için kritik güvenlik ve güvenlik kararları hakkında tavsiyelerde bulunmak üzere yeni bir komite kurduğunu duyurdu.
  • Siber güvenlik uzmanları, Windows Recall AI uygulamasının ekran görüntüsü aldığını ve bununda kolayca kötüye kullanılabileceği konusunda uyarıyor. Bir etik hacker, TotalRecall adında bir araçla Recall verilerini çıkardığını ve Recall uygulamasının veritabanının şifresiz olduğu için saldırganlar tarafından kolayca ulaşılabileceğini iddia etti.
  • 200+ Özel GPT uygulamasında yapılan inceleme sonucunda tümünün “Prompt Enjeksiyon” saldırılarına açık olduğu ortaya çıktı.
  • Google şirketinin yeni AI arama sonuçları, kötü amaçlı yazılım ve dolandırıcılık sitelerini tanıtıyor.
  • Birleşmiş Milletler (BM) Genel Kurulu, güvenli yapay zeka sistemlerinin desteklenmesine ilişkin ilk karar tasarısını kabul etti.
  • ABD ve Birleşik Krallık, yapay zeka güvenliği biliminde iş birliği yapmak için anlaşma imzaladı.
  • Yapay Zeka Modellerinde Kötü Amaçlı Saldırı Riski: Wiz araştırması, Replicate adlı yapay zeka hizmet olarak sağlayıcıda kritik güvenlik açığı buldu.
  • Salt Labs güvenlik firması ChatGPT eklentilerindeki güvenlik açıklarının üçüncü taraf hesaplaraa ve hassas verilere erişimine yol açtığını tespit etti.
  • Ray AI Framework sistemi, binlerce sunucu tarafından yapılan saldırılar sonucunda hacklendi ve verileri ele geçirildi.
  • Microsoft, Çinli bir hacker grubunun Tayvan'daki kuruluşları hedef aldığını ve AI kullanarak sahte haber yayınları oluşturmak için kullandığını bildirdi.
  • HackerOne AI uygulamaları tarafından yapılan en yaygın 10 yapay zeka hatasını bu yazıda bir araya getirmiştir.

SANS CISO Primer: Yapay Zeka ve Gen AI Etkisi

2024 yılında, Yapay Zeka (AI) ve özellikle GenAI (Generative AI), siber güvenlik alanında önemli bir etki yaratacak teknolojiler olarak öne çıkıyor. Bu teknolojilerin hem risk kaynağı hem de güvenlik uygulamalarını geliştirme potansiyeli taşıdığı SANS tarafından yayınlanan raporda vurgulanıyor. Raporda öne çıkan konulara beraber bakalım.

Yazının tamamı için tıklayın.

Diğer blog yazıları için tıklayın.

GenAI in CyberSecurity


Muge Sanoglu

Regional Project Coordinator and Digital Security Manager at BSH Home Appliances Corporation (RNA-Region North America)

6ay

👍👏👏👏

Onur Korucu

Vice President Global Consulting Services | Cybersecurity | Data Protection | Digital Trust | WomenTech Global Ambassador & Council Member | IAPP Knowledgenet Chapter Chair

6ay

Harika yazı 👍🏼 Yakınsama çok yerinde olmuş, elinize sağlık Semih Gelişli!

Yorumları görmek veya yorum eklemek için oturum açın

Diğer görüntülenenler