ইউরোপীয় ইউনিয়নে গুগলের শীর্ষ গোপনীয়তা নিয়ন্ত্রক একটি তদন্ত শুরু করেছে যে এটি জেনারেটিভ এআই প্রশিক্ষণের জন্য ব্যক্তিগত তথ্য ব্যবহার করার বিষয়ে ব্লকের ডেটা সুরক্ষা আইন মেনে চলে কিনা।
বিশেষত, এটি তদন্ত করছে যে টেক জায়ান্টটিকে একটি ডেটা সুরক্ষা প্রভাব মূল্যায়ন (DPIA) করার প্রয়োজন ছিল কিনা তা সক্রিয়ভাবে বিবেচনা করার জন্য এর AI প্রযুক্তিগুলি ব্যক্তিদের অধিকার এবং স্বাধীনতার জন্য যে ঝুঁকিগুলি তৈরি করতে পারে যাদের তথ্য মডেলগুলিকে প্রশিক্ষণের জন্য ব্যবহার করা হয়েছিল৷
জেনারেটিভ এআই সরঞ্জামগুলি মিথ্যা তৈরি করার জন্য কুখ্যাত যা বিশ্বাসযোগ্য বলে মনে হয়। এই প্রবণতা, চাহিদা অনুযায়ী ব্যক্তিগত তথ্য প্রদানের ক্ষমতার সাথে মিলিত, এর নির্মাতাদের জন্য অনেক আইনি ঝুঁকি তৈরি করে। আয়ারল্যান্ডের ডেটা সুরক্ষা কমিশন (DPC), যেটি ব্লকের জেনারেল ডেটা প্রোটেকশন রেগুলেশন (GDPR) এর সাথে Google-এর সম্মতি তত্ত্বাবধান করে, যেকোনও নিশ্চিত লঙ্ঘনের জন্য Alphabet-এর বার্ষিক বৈশ্বিক টার্নওভারের 4% পর্যন্ত জরিমানা করার ক্ষমতা রাখে৷
Google সাধারণ-উদ্দেশ্য ভাষা মডেলের (LLM) একটি সম্পূর্ণ পরিবার সহ বেশ কিছু জেনারেটিভ এআই টুল তৈরি করেছে যা এটি বলে। যমজ (আগে বার্ড) এটি AI চ্যাটবটগুলিকে শক্তিশালী করতে প্রযুক্তি ব্যবহার করে, যার মধ্যে ওয়েব অনুসন্ধানের উন্নতিও রয়েছে৷ এই ভোক্তা-মুখী AI সরঞ্জামগুলির অন্তর্নিহিত একটি Google LLM নামক PaLM2, যা গত বছর মুক্তি পেয়েছে আপনার I/O বিকাশকারী সম্মেলনে।
আইরিশ ডিপিসি বলেছে যে আয়ারল্যান্ডের ডেটা সুরক্ষা আইন 2018 এর ধারা 110 অনুসারে Google কীভাবে এই মৌলিক এআই মডেল তৈরি করেছে তা তদন্ত করছে, যা জিডিপিআরকে জাতীয় আইনে রূপান্তর করেছে।
GenAI মডেলের প্রশিক্ষণের জন্য সাধারণত প্রচুর পরিমাণে ডেটার প্রয়োজন হয় এবং LLM নির্মাতাদের অর্জিত তথ্যের ধরন, সেইসাথে তারা কীভাবে এবং কোথা থেকে তা প্রাপ্ত করেছে, কপিরাইট এবং গোপনীয়তা সহ বিভিন্ন আইনি সমস্যাগুলির সাথে ক্রমবর্ধমানভাবে যাচাই করা হচ্ছে।
পরবর্তী ক্ষেত্রে, AI ট্রেনিং ফডার হিসেবে ব্যবহৃত তথ্য যাতে EU-এর লোকেদের ব্যক্তিগত তথ্য থাকে তা ব্লকের ডেটা সুরক্ষা নিয়মের অধীন, তা পাবলিক ইন্টারনেট থেকে স্ক্র্যাপ করা হোক বা সরাসরি ব্যবহারকারীদের কাছ থেকে অর্জিত হোক। এই কারণেই বেশ কয়েকটি এলএলএম ইতিমধ্যে প্রশ্নের সম্মুখীন হয়েছে — এবং GDPR এর কিছু প্রয়োগ — গোপনীয়তা সম্মতির সাথে সম্পর্কিত, সহ AI খুলুনএর স্রষ্টা জিপিটি (এবং ChatGPT); এবং গোলযে বিকাশ লামা এআই মডেল.
এলন মাস্কের মালিকানাধীন এএক্সও আকৃষ্ট হয়েছিল জিডিপিআর সম্পর্কে অভিযোগ এবং এআই প্রশিক্ষণের জন্য ব্যক্তিগত ডেটা ব্যবহারে ডিপিসি-র ক্ষোভ – একটি মামলার দিকে নিয়ে যায় এবং X এর ডেটা প্রক্রিয়াকরণ সীমিত করার প্রতিশ্রুতি কিন্তু কোনো নিষেধাজ্ঞা নেই। যদিও X এখনও একটি GDPR জরিমানা সম্মুখীন হতে পারে যদি DPC নির্ধারণ করে যে তার Grok AI টুলকে প্রশিক্ষণ দেওয়ার জন্য ব্যবহারকারীর ডেটা প্রক্রিয়াকরণের নিয়ম লঙ্ঘন করেছে।
Google-এর GenAI-তে DPC-এর DPIA তদন্ত এই ক্ষেত্রে সর্বশেষ নিয়ন্ত্রক পদক্ষেপ।
“সংবিধিবদ্ধ তদন্তটি এই প্রশ্ন নিয়ে উদ্বিগ্ন যে Google এর ব্যক্তিগত ডেটা প্রক্রিয়াকরণে জড়িত হওয়ার আগে সাধারণ ডেটা সুরক্ষা প্রবিধানের (ডেটা সুরক্ষা প্রভাব মূল্যায়ন) অনুচ্ছেদ 35 অনুসারে একটি মূল্যায়ন করতে হতে পারে এমন কোনও বাধ্যবাধকতা মেনে চলেছে কিনা। EU/EEA ডেটা বিষয়গুলি এর মৌলিক এআই মডেল, পাথওয়েস ল্যাঙ্গুয়েজ মডেল 2 (PaLM 2) এর বিকাশের সাথে যুক্ত,” DPC একটি প্রেস বিজ্ঞপ্তিতে লিখেছে।
এটি হাইলাইট করে যে একটি DPIA “ব্যক্তিগত তথ্যের প্রক্রিয়াকরণের ফলে উচ্চ ঝুঁকি হওয়ার সম্ভাবনা থাকলে ব্যক্তিদের মৌলিক অধিকার এবং স্বাধীনতাগুলি পর্যাপ্তভাবে বিবেচনা করা এবং সুরক্ষিত করা হয় তা নিশ্চিত করার জন্য অত্যন্ত গুরুত্বপূর্ণ” হতে পারে।
“এই সংবিধিবদ্ধ তদন্তটি DPC-এর বৃহত্তর প্রচেষ্টার অংশ গঠন করে, এর EU/EEA (ইউরোপীয় অর্থনৈতিক অঞ্চল) সমকক্ষ নিয়ন্ত্রকদের সাথে একসাথে কাজ করে, EU/EEA ডেটা বিষয়ের ব্যক্তিগত ডেটা প্রক্রিয়াকরণকে নিয়ন্ত্রণ করার জন্য মডেল এবং AI সিস্টেমে উন্নয়নশীল,” DPC যোগ করা হয়েছে, ব্লকের জিডিপিআর এনফোর্সার নেটওয়ার্কের চলমান প্রচেষ্টার কথা উল্লেখ করে কিছু ধরণের ঐকমত্য পৌঁছানোর জন্য GenAI সরঞ্জামগুলিতে গোপনীয়তা আইন কীভাবে আরও ভালভাবে প্রয়োগ করবেন.
DPC প্রশ্নের উত্তরের জন্য Google-এর সাথে যোগাযোগ করা হয়েছে।