OpenAI’ye “Yasa dışı veri toplama” suçlaması: Çocuk verileri riskte

Kanada’da yürütülen resmi soruşturma, yapay zeka dünyasında büyük yankı uyandırdı. Ülkenin gizlilik denetleme kurumları tarafından gerçekleştirilen ortak incelemede, OpenAI şirketinin ChatGPT’nin geliştirme sürecinde Kanada’nın gizlilik yasalarına tam olarak uymadığı sonucuna varıldı.

Kanada basınında yer alan bilgilere göre soruşturma kapsamında, ChatGPT’nin eğitimi sırasında geniş çapta kişisel verinin toplandığı ve bu süreçte yeterli güvenlik önlemlerinin uygulanmadığı tespit edildi. Özellikle kullanıcıların hassas kişisel bilgilerinin korunmasına yönelik eksikliklerin dikkat çektiği belirtildi.

SORUŞTURMADA “YASALARA AYKIRI VERİ TOPLAMA” VURGUSU

Kanada’daki gizlilik denetleme kuruluşlarının yayımladığı raporda, OpenAI’nin veri toplama süreçlerinde çeşitli ihlallerin bulunduğu ifade edildi. İncelemelerde, yapay zeka modelinin eğitimi için kullanılan veriler arasında sağlık bilgileri, siyasi görüşler ve çocuklara ait bazı hassas bilgilerin de yer alabileceği kaydedildi.

“OpenAI’nin, yeterli koruma mekanizması oluşturmadan büyük miktarda kişisel veri topladığı tespit edildi.”

Raporda ayrıca, toplanan verilerin hangi kapsamda işlendiği ve kullanıcı onay süreçlerinin ne ölçüde işletildiği konusunda da soru işaretleri bulunduğu aktarıldı. Yetkililer, özellikle yapay zeka sistemlerinin eğitimi sırasında kişisel verilerin kullanımına ilişkin daha şeffaf politikalar gerektiğini savundu.

KANADA’DAN OPENAI’A SERT ELEŞTİRİ

Kanada Federal Gizlilik Komiseri Philippe Dufresne, soruşturma sonrası yaptığı açıklamada OpenAI’ye yönelik sert ifadeler kullandı. Dufresne, şirketin bilinen gizlilik risklerini tam anlamıyla çözmeden ChatGPT’yi kamuya sunduğunu söyledi.

“Kanadalılar veri ihlalleri ve kişisel bilgiler üzerinden oluşabilecek ayrımcılık riskleriyle karşı karşıya bırakıldı.”

Dufresne ayrıca, OpenAI’nin neden Kanada yasalarına tam uyum sağlamadan ürünü piyasaya sürdüğünü açıklamakta zorlandığını ifade etti. Açıklamalar, teknoloji sektöründe yapay zeka şirketlerine yönelik denetimlerin daha da sıkılaşabileceği yorumlarına neden oldu.

ÇOCUKLARA AİT VERİLER ENDİŞE YARATTI

Soruşturma dosyasında en dikkat çeken başlıklardan biri ise çocuklara ait bilgilerin de veri havuzunda bulunabileceğine yönelik iddialar oldu. Uzmanlar, yapay zeka modellerinin eğitilmesinde kullanılan içeriklerin denetimsiz biçimde toplanmasının uzun vadede ciddi etik ve hukuki sorunlar doğurabileceğine işaret ediyor.

Kanada’daki denetim kurumları, OpenAI hakkında 2023 yılında yapılan bir şikayet sonrası resmi inceleme başlatmıştı. Şikayette şirketin kişisel bilgileri izinsiz şekilde topladığı, kullandığı ve üçüncü taraflarla paylaşmış olabileceği öne sürülmüştü.

“Soruşturma, yapay zeka şirketlerinin veri güvenliği konusunda küresel baskıyla karşı karşıya kaldığını bir kez daha ortaya koydu.”

Uzmanlara göre, önümüzdeki dönemde Avrupa Birliği, Kanada ve diğer ülkelerde yapay zeka şirketlerine yönelik veri güvenliği düzenlemelerinin daha sert hale gelmesi bekleniyor.