এআই এর ভবিষ্যৎ ঝুঁকি নিয়ে মেটা একটি নীতিমালা নথি প্রকাশ করেছে

মেটা সম্প্রতি একটি এআই সম্পর্কিত নীতিমালা নথি প্রকাশ করেছে, যেখানে তারা উন্নত এআই (কৃত্রিম বুদ্ধিমত্তা) প্রযুক্তির সম্ভাব্য ঝুঁকি এবং এর ব্যবহার সংক্রান্ত নীতিমালা তুলে ধরেছে। প্রতিষ্ঠানটি জানিয়েছে, যদি কোনো এআই প্রযুক্তি খুব বেশি ঝুঁকিপূর্ণ হয়ে পড়ে , তাহলে তারা সেটির উন্নয়ন বন্ধ করে দিবে। মেটার সিইও মার্ক জাকারবার্গ জানিয়েছেন যে, ভবিষ্যতে তারা কৃত্রিম সাধারণ বুদ্ধিমত্তা (AGI) জনসাধারণের জন্য উন্মুক্ত করে দিতে চান। তবে নতুন প্রকাশিত “ফ্রন্টিয়ার এআই ফ্রেমওয়ার্ক” অনুযায়ী, কিছু কিছু উন্নতমানের এআই সিস্টেম জনসাধারণের জন্য উন্মুক্ত করা হবে না, কারণ সেগুলো কিছুটা বিপজ্জনক হতে পারে।

মেটা তাদের এআই প্রযুক্তিকে দুই ধরনের ঝুঁকির ভিত্তিতে শ্রেণিবদ্ধ করেছে: “উচ্চ ঝুঁকি” (High Risk) এবং “গুরুতর ঝুঁকি” (Critical Risk)। উচ্চ ঝুঁকির এআই এমন প্রযুক্তি যা সাইবার নিরাপত্তা, রাসায়নিক বা জৈব অস্ত্রের বিকাশকে সহজ করতে পারে, তবে এটি নির্ভরযোগ্যভাবে ব্যবহার করাটা খুবি চ্যালেঞ্জিং বিষয়। অপরদিকে, গুরুতর ঝুঁকির এআই এমন প্রযুক্তি যা ব্যবহার করলে “ধ্বংসাত্মক পরিণতি” ঘটতে পারে, এবং তা কোনোভাবেই নিয়ন্ত্রণ করা সম্ভব হবে না তাই এটি নিয়ন্ত্রণ করতে হলে একমাত্র উপায় হচ্ছে পুরোপুরিভাবে বন্ধ করে দেওয়া।

আরও পড়ুনঃ ডিপসিক এআই হঠাৎ কেন এত জনপ্রিয় হয়ে উঠলো? জানুন কি কেন ও কিভাবে?

মেটার প্রকাশিত নীতিমালায় কিছু উদাহরণ দেওয়া হয়েছে, যেমন: এআই যদি কোনো কর্পোরেট নিরাপত্তা ব্যবস্থা সম্পূর্ণরূপে ভেঙে ফেলে কিংবা যদি এটি উচ্চ মাত্রার জৈব অস্ত্র তৈরির ক্ষমতা রাখে, তবে সেটিকে গুরুতর ঝুঁকিপূর্ণ বলে বিবেচনা করা হবে। তবে মেটা স্বীকার করেছে যে, তাদের তালিকা সম্পূর্ণ নয় এবং ভবিষ্যতে আরও ঝুঁকির বিষয় যুক্ত হতে পারে।

একটি গুরুত্বপূর্ণ বিষয় হলো, মেটা নির্দিষ্ট কোনো পরীক্ষার মাধ্যমে এই ঝুঁকিগুলো চিহ্নিত করছে না। বরং, অভ্যন্তরীণ ও বাহ্যিক গবেষকদের পরামর্শ নিয়ে এবং উচ্চ পর্যায়ের সিদ্ধান্ত গ্রহণকারীদের মতামতের ভিত্তিতে ঝুঁকি নির্ধারণ করা হচ্ছে। মেটা জানিয়েছে, এই মুহূর্তে এমন নির্ভরযোগ্য বৈজ্ঞানিক পদ্ধতি নেই যা দিয়ে এআই-এর ঝুঁকি সম্পূর্ণভাবে মাপা সম্ভব।

যদি কোনো এআই সিস্টেমকে উচ্চ ঝুঁকিপূর্ণ হিসেবে চিহ্নিত করা হয়, তবে সেটির অ্যাক্সেস সীমিত করা হবে এবং শুধুমাত্র ঝুঁকি কমিয়ে “মাঝারি” পর্যায়ে আনা গেলে সেটি প্রকাশ করা হবে। অন্যদিকে, যদি কোনো সিস্টেম গুরুতর ঝুঁকিপূর্ণ হয়, তবে সেটির উন্নয়ন বন্ধ করে দেওয়া হবে এবং কঠোর নিরাপত্তা ব্যবস্থা নেওয়া হবে যেন এটি কোনোভাবে বাইরে না চলে যায়।

এই নীতিমালা প্রকাশের মাধ্যমে মেটা মূলত তাদের এআই উন্নয়নের খোলামেলা নীতির সমালোচনার জবাব দিতে চেয়েছে। অন্যান্য প্রতিষ্ঠান, যেমন: ওপেনএআই তাদের উন্নত এআই মডেলকে কেবলমাত্র নির্দিষ্ট ব্যবহারকারীদের জন্য উন্মুক্ত করেছে, কিন্তু মেটা বরাবরই এর বিপরীত নীতি অনুসরণ করেছে। মেটার এআই মডেল, লামা (Llama), লক্ষাধিক ডাউনলোড হয়েছে এবং এটি বিভিন্ন গবেষণা ও উন্নয়নে ব্যবহৃত হচ্ছে। তবে, কিছু প্রতিবেদন অনুযায়ী, লামা মডেলকে একবার একজন শত্রু রাষ্ট্র প্রতিরক্ষা সংক্রান্ত চ্যাটবট তৈরিতে ব্যবহার করেছে।

এই নীতিমালা প্রকাশ করে মেটা তাদের স্বচ্ছতা দেখানোর চেষ্টা করেছে এবং একই সঙ্গে প্রতিযোগী প্রতিষ্ঠানগুলোর থেকে নিজেদের নীতি পৃথক করার প্রচেষ্টা চালিয়েছে। বিশেষ করে, তারা চীনা এআই কোম্পানি ডিপসিকের (DeepSeek) সঙ্গে নিজেদের পার্থক্য তুলে ধরেছে। ডিপসিকের এআই প্রযুক্তি খুব সহজেই ক্ষতিকর তথ্য তৈরি করতে পারে, যা মেটার নীতির সঙ্গে সামঞ্জস্যপূর্ণ নয়।

মেটা বলছে, “আমরা বিশ্বাস করি, সুবিধা ও ঝুঁকির মধ্যে ভারসাম্য রেখে এআই প্রযুক্তি উন্নয়ন করা সম্ভব, যাতে সমাজ উপকৃত হয় কিন্তু ঝুঁকিও নিয়ন্ত্রিত থাকে।” ভবিষ্যতে, এআই প্রযুক্তির উন্নয়ন নিয়ে আলোচনা আরও বাড়বে এবং মেটার মতো প্রতিষ্ঠানগুলোর নীতিমালা হয়তো আরও পরিবর্তন হবে। তবে বর্তমানে মেটার ফ্রন্টিয়ার এআই ফ্রেমওয়ার্ক একটি গুরুত্বপূর্ণ পদক্ষেপ হিসেবে বিবেচিত হচ্ছে, যা উন্নতমানের এআই প্রযুক্তির নিরাপদ ব্যবহারে ভূমিকা রাখবে।

ডিপসিক এআই হঠাৎ কেন এত জনপ্রিয় হয়ে উঠলো? জানুন কি কেন ও কিভাবে?

WhatsApp Group Join Now
Telegram Group Join Now
instagram Group Join Now

সাম্প্রতিক খবর

.আরো