বাংলাস্ফিয়ার: মার্কিন কৃত্রিম বুদ্ধিমত্তা কোম্পানি অ্যানথ্রপিক ঘোষণা করেছে যে তারা আদালতে চ্যালেঞ্জ করবে যুক্তরাষ্ট্র সরকারের সেই সিদ্ধান্তকে, যেখানে কোম্পানিটিকে “supply-chain risk” বা সরবরাহ শৃঙ্খলার ঝুঁকি হিসেবে চিহ্নিত করা হয়েছে। এই ধরনের লেবেল সাধারণত বিদেশি প্রতিদ্বন্দ্বী বা নিরাপত্তা-ঝুঁকিপূর্ণ প্রতিষ্ঠানের ক্ষেত্রে ব্যবহার করা হয়, ফলে একটি মার্কিন এআই কোম্পানির ওপর এই সিদ্ধান্ত পড়া বেশ অস্বাভাবিক বলে মনে করা হচ্ছে।
এই বিরোধের মূল কারণ হলো পেন্টাগনের সঙ্গে এআই ব্যবহারের নীতিমালা নিয়ে মতভেদ। যুক্তরাষ্ট্রের প্রতিরক্ষা দপ্তর United States Department of Defense চেয়েছিল যে অ্যানথ্রপিক তাদের এআই মডেল ক্লড(Claude)-এর নিরাপত্তা বিধিনিষেধ বা guardrails কিছুটা শিথিল করুক, যাতে সামরিক ব্যবহারের ক্ষেত্রে এর ক্ষমতা আরও বিস্তৃতভাবে কাজে লাগানো যায়। কিন্তু কোম্পানিটি এতে আপত্তি জানায় এবং নিরাপত্তা সীমাবদ্ধতা দুর্বল করতে অস্বীকার করে।
কোম্পানির প্রধান নির্বাহী দারিও আমোদেই একটি সাক্ষাৎকারে বলেন যে এই সিদ্ধান্ত মূলত তাদের ওপর চাপ সৃষ্টি করার চেষ্টা। তাঁর মতে, “supply-chain risk” তকমা সাধারণত এমন সংস্থা বা দেশের জন্য ব্যবহৃত হয় যাদের সঙ্গে যুক্তরাষ্ট্রের নিরাপত্তা সংঘাত রয়েছে। ফলে একটি দেশীয় প্রযুক্তি কোম্পানির ওপর এই ধরনের লেবেল দেওয়া নজিরবিহীন।
আমোদেই আরও বলেন, এই সিদ্ধান্তের বাস্তব প্রভাব সীমিত হবে। কারণ এই শ্রেণিবিভাগ মূলত অ্যানথ্রপিকের গ্রাহকদের প্রতিরক্ষা বা সামরিক সম্পর্কিত প্রকল্পের ক্ষেত্রেই প্রভাব ফেলবে। অর্থাৎ বাণিজ্যিক বা বেসরকারি প্রযুক্তি ব্যবহারের ক্ষেত্রে তেমন বাধা তৈরি হবে না।
এই ঘটনাটি বৃহত্তর একটি বিতর্কের অংশ—কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি কতটা এবং কীভাবে সামরিক কাজে ব্যবহার করা উচিত। যুক্তরাষ্ট্রের প্রযুক্তি কোম্পানিগুলোর একটি অংশ মনে করে যে AI-এর ওপর কঠোর নৈতিক সীমা থাকা দরকার, অন্যদিকে সামরিক ও নিরাপত্তা সংস্থাগুলো চাইছে প্রযুক্তিটি আরও মুক্তভাবে ব্যবহার করতে। অ্যানথ্রপিকের সঙ্গে সরকারের এই সংঘাত সেই দ্বন্দ্বেরই একটি নতুন উদাহরণ।