AI-তে ব্যাখ্যাযোগ্যতা সম্পর্কে ভুল প্রশ্ন দিয়ে শুরু করুন। গবেষকরা, অনুশীলনকারী এবং এমনকি নিয়ন্ত্রকরা প্রায়ই জিজ্ঞাসা করেন যে একটি মডেল কিনা ব্যাখ্যাযোগ্য. কিন্তু এই ফ্রেমিং অনুমান করে যে ব্যাখ্যাযোগ্যতা এমন একটি সম্পত্তি যা একটি মডেলের আছে বা নেই। এটা এমন নয়।
একটি মডেল বিমূর্ত মধ্যে ব্যাখ্যাযোগ্য বা ব্যাখ্যাযোগ্য নয়। এখানে আমরা লিনিয়ার রিগ্রেশন বা সিদ্ধান্ত গাছের মতো সহজাতভাবে স্বচ্ছ মডেলগুলির কথা বলছি না, যার যুক্তি সরাসরি পরিদর্শন করা যেতে পারে। পরিবর্তে, আমরা জটিল মডেলগুলির সাথে উদ্বিগ্ন যার সিদ্ধান্ত প্রক্রিয়াগুলি অবিলম্বে অ্যাক্সেসযোগ্য নয়।
সুতরাং ব্যাখ্যাযোগ্যতা একটি চেকবক্স, একটি ভিজ্যুয়ালাইজেশন বা একটি নির্দিষ্ট অ্যালগরিদম নয়। এটি পদ্ধতির একটি সেট হিসাবে আরও ভালভাবে বোঝা যায় যা মানুষকে নির্দিষ্ট প্রশ্নের উত্তর দেওয়ার জন্য মডেল বিশ্লেষণ করতে দেয়। প্রশ্ন পরিবর্তন করুন, এবং ব্যাখ্যার উপযোগিতা এর সাথে পরিবর্তিত হয়। তারপরে আবার, আসল সমস্যাটি একটি মডেল ব্যাখ্যাযোগ্য কিনা তা নয়, বরং আমাদের কী জন্য একটি ব্যাখ্যা দরকার তা।
একবার আমরা এইভাবে ব্যাখ্যার দিকে তাকালে, একটি সুস্পষ্ট কাঠামো আবির্ভূত হয়। অনুশীলনে, ব্যাখ্যাগুলি ধারাবাহিকভাবে তিনটি স্বতন্ত্র বৈজ্ঞানিক ফাংশন পরিবেশন করে: ব্যর্থতা নির্ণয় করা, শিক্ষা নিশ্চিত করা এবং জ্ঞান আহরণ করা। এই ভূমিকাগুলি ধারণাগতভাবে ভিন্ন, যদিও তারা অনুরূপ প্রযুক্তির উপর নির্ভর করে। এই পার্থক্য বোঝা কখন ব্যাখ্যা করা প্রয়োজন এবং আমাদের আসলে কী ধরনের ব্যাখ্যা প্রয়োজন তা স্পষ্ট করতে সহায়তা করে।
রোগ নির্ণয় হিসাবে ব্যাখ্যা
ব্যাখ্যার প্রথম ভূমিকা মডেল বিকাশের সময় প্রদর্শিত হয়, যখন মডেলগুলি এখনও পরীক্ষামূলক বস্তু। এই স্তরে তারা অস্থির, অসম্পূর্ণ এবং প্রায়শই এমনভাবে ভুল যা সামগ্রিক মেট্রিক্স প্রকাশ করতে পারে না। নির্ভুলতা আমাদের বলে যে একটি মডেল সফল হয় কি না, কিন্তু কেন এটি ব্যর্থ হয় তা নয়। সম্পূর্ণ ভিন্ন সিদ্ধান্তের নিয়মের উপর নির্ভর করে দুটি মডেল একই ধরনের কর্মক্ষমতা অর্জন করতে পারে। কেউ প্রকৃত গঠন শিখতে পারে; কেউ অন্য দুর্ঘটনাজনিত পারস্পরিক সম্পর্ককে কাজে লাগাতে পারে।
ব্যাখ্যামূলক পদ্ধতি আমাদের একটি মডেলের সিদ্ধান্ত প্রক্রিয়ার ভিতরে দেখতে এবং এই লুকানো ব্যর্থতার মোডগুলি সনাক্ত করতে দেয়। এই অর্থে, তারা সফ্টওয়্যার প্রকৌশলে ডিবাগিং সরঞ্জামগুলির মতো একটি ভূমিকা পালন করে। তাদের ছাড়া, একটি মডেলের উন্নতি মূলত অনুমান কাজ হয়ে যায়। তাদের সাথে, আমরা মডেলটি আসলে কী করছে সে সম্পর্কে পরীক্ষাযোগ্য অনুমান তৈরি করতে পারি।
একটি সহজ উদাহরণ হাতে লেখা অঙ্কের শ্রেণীবিভাগ থেকে আসে। MNIST ডেটাসেটটি ইচ্ছাকৃতভাবে সহজ, এটি মডেলের যুক্তি আমাদের প্রত্যাশার সাথে সামঞ্জস্যপূর্ণ কিনা তা পরীক্ষা করার জন্য আদর্শ করে তোলে।

যখন আমরা কল্পনা করি যে কোন পিক্সেলগুলি ভবিষ্যদ্বাণীকে প্রভাবিত করেছে, আমরা অবিলম্বে দেখতে পারি যে নেটওয়ার্কটি পয়েন্ট স্ট্রোকের উপর ফোকাস করছে নাকি অপ্রাসঙ্গিক পটভূমি এলাকায়। পার্থক্যটি আমাদের বলে যে মডেলটি অর্থপূর্ণ সংকেত বা শর্টকাট শিখেছে কিনা। এই ক্লিনিকাল ভূমিকায়, ব্যাখ্যাগুলি শেষ ব্যবহারকারী বা স্টেকহোল্ডারদের জন্য নয়। তারা মডেল আচরণ বোঝার চেষ্টা ডেভেলপারদের জন্য টুল.
স্বীকৃতি হিসাবে ব্যাখ্যা
একবার একটি মডেল ভাল কাজ করে, প্রশ্ন পরিবর্তিত হয়. কেন এটি ব্যর্থ হয় তা নিয়ে আমরা আর প্রাথমিকভাবে উদ্বিগ্ন নই। পরিবর্তে, আমরা জানতে চাই যে এটি সঠিক কারণে সফল হয়েছে কিনা।
এই পার্থক্য সূক্ষ্ম কিন্তু গুরুত্বপূর্ণ. একটি সিস্টেম উচ্চ নির্ভুলতা অর্জন করতে পারে এবং এখনও বৈজ্ঞানিকভাবে বিভ্রান্তিকর হতে পারে যদি এটি মিথ্যা পারস্পরিক সম্পর্কের উপর নির্ভর করে। উদাহরণস্বরূপ, প্রাণীদের সনাক্ত করার জন্য প্রশিক্ষিত একটি শ্রেণিবিন্যাসকারী প্রকৃতপক্ষে প্রাণীদের পরিবর্তে পটভূমি সংকেতের উপর নির্ভর করার সময় পুরোপুরি কাজ করছে বলে মনে হতে পারে। একটি ভবিষ্যদ্বাণীমূলক দৃষ্টিকোণ থেকে, যেমন একটি মডেল সফল দেখায়। বৈজ্ঞানিক দৃষ্টিকোণ থেকে, এটি ভুল ধারণা শিখেছে।
ব্যাখ্যাযোগ্যতা আমাদের অভ্যন্তরীণ উপস্থাপনাগুলি পরিদর্শন করতে এবং তারা ডোমেনের প্রত্যাশার সাথে সামঞ্জস্যপূর্ণ কিনা তা যাচাই করতে দেয়। গভীর নিউরাল নেটওয়ার্কে, মধ্যবর্তী স্তরগুলি শেখা বৈশিষ্ট্যগুলিকে এনকোড করে, এবং সেই উপস্থাপনাগুলি বিশ্লেষণ করলে সিস্টেমটি অর্থপূর্ণ কাঠামো আবিষ্কার করেছে বা নিছক সুপারফিসিয়াল প্যাটার্নগুলি মুখস্থ করেছে কিনা তা প্রকাশ করতে পারে।
এটি ইমেজনেটের মতো বড় আকারের প্রাকৃতিক চিত্র ডেটাসেটের সাথে বিশেষভাবে প্রাসঙ্গিক হয়ে ওঠে, যেখানে দৃশ্য জুড়ে দৃষ্টিভঙ্গি, পটভূমি এবং বস্তুর উপস্থিতিতে যথেষ্ট পার্থক্য রয়েছে।

যেহেতু ইমেজনেট ইমেজে বিশৃঙ্খল দৃশ্য, বিভিন্ন প্রেক্ষাপট এবং উচ্চ আন্তঃ-শ্রেণির পরিবর্তনশীলতা রয়েছে, তাই সফল মডেলদের অবশ্যই অগভীর ভিজ্যুয়াল ইঙ্গিতের উপর নির্ভর না করে অনুক্রমিক উপস্থাপনা শিখতে হবে। যখন আমরা অভ্যন্তরীণ ফিল্টার বা অ্যাক্টিভেশন মানচিত্রগুলি কল্পনা করি, তখন আমরা পরীক্ষা করতে পারি যে প্রাথমিক স্তরগুলি প্রান্তগুলি সনাক্ত করে, মধ্য স্তরগুলি টেক্সচারগুলি ক্যাপচার করে এবং গভীর স্তরগুলি আকারগুলিতে সাড়া দেয় কিনা৷ এই কাঠামোর উপস্থিতি পরামর্শ দেয় যে নেটওয়ার্ক ডেটা সম্পর্কে অর্থপূর্ণ কিছু শিখেছে। এর অনুপস্থিতি পরামর্শ দেয় যে কর্মক্ষমতা মেট্রিক্স ধারণাগত ব্যর্থতা লুকিয়ে রাখতে পারে।
এই দ্বিতীয় ভূমিকায়, ব্যাখ্যাযোগ্যতা একটি ভাঙা মডেল ডিবাগ করার বিষয়ে নয় বরং একটি সফল মডেলকে যাচাই করার বিষয়ে।
জ্ঞান হিসাবে ব্যাখ্যা
তৃতীয় ভূমিকাটি আবির্ভূত হয় যখন মডেলগুলি ডোমেনে প্রয়োগ করা হয় যেখানে শুধুমাত্র পূর্বাভাসই যথেষ্ট নয়। এই প্রেক্ষাপটে, মেশিন লার্নিং সিস্টেমগুলি শুধুমাত্র আউটপুট তৈরি করতে নয়, অন্তর্দৃষ্টি তৈরি করতেও ব্যবহৃত হয়। এখানে ব্যাখ্যাযোগ্যতা আবিষ্কারের একটি হাতিয়ার হয়ে ওঠে।
আধুনিক মডেলগুলি ডেটাসেটে পরিসংখ্যানগত নিয়মিততা সনাক্ত করতে পারে যে কোনও মানুষ ম্যানুয়ালি বিশ্লেষণ করতে পারে তার চেয়ে অনেক বড়। যখন আমরা তাদের যুক্তি পর্যবেক্ষণ করতে পারি, তখন তারা এমন নিদর্শন প্রকাশ করতে পারে যা নতুন অনুমান বা পূর্বে অজানা সম্পর্কের পরামর্শ দেয়। বৈজ্ঞানিক প্রয়োগে, এই ক্ষমতা প্রায়ই ভবিষ্যদ্বাণীমূলক নির্ভুলতার চেয়ে বেশি মূল্যবান।
মেডিকেল ইমেজিং একটি স্পষ্ট উদাহরণ প্রদান করে। সিটি স্ক্যান থেকে ফুসফুসের ক্যান্সার সনাক্ত করতে প্রশিক্ষিত একটি নিউরাল নেটওয়ার্ক বিবেচনা করুন।

যদি এই ধরনের মডেল ম্যালিগন্যান্সির ভবিষ্যদ্বাণী করে, তাহলে চিকিত্সকদের বুঝতে হবে কোন অঞ্চলগুলি সেই সিদ্ধান্তকে প্রভাবিত করে। যদি হাইলাইট করা অঞ্চলগুলি টিউমার সীমানার সাথে মেলে তবে ব্যাখ্যাটি মেডিকেল যুক্তির সাথে সারিবদ্ধ হয়। যদি তারা তা না করে, ভবিষ্যদ্বাণীটি তার যথার্থতা নির্বিশেষে বিশ্বাস করা যায় না। তবে একটি তৃতীয় সম্ভাবনাও রয়েছে: ব্যাখ্যাটি এমন সূক্ষ্ম কাঠামো প্রকাশ করতে পারে যা চিকিত্সকরা পূর্বে চিকিত্সাগতভাবে প্রাসঙ্গিক বলে মনে করেননি। এই ধরনের ক্ষেত্রে ব্যাখ্যাযোগ্যতা একটি ভবিষ্যদ্বাণীকে ন্যায়সঙ্গত করার চেয়ে বেশি করে, এটি জ্ঞানে অবদান রাখে।
এখানে ব্যাখ্যা শুধুমাত্র মডেল বোঝার জন্য সরঞ্জাম নয়. তারা মানুষের বোঝার প্রসারিত করার হাতিয়ার।
একটি ধারণা, তিনটি কাজ
এই উদাহরণগুলি দেখায় যে ব্যাখ্যাযোগ্যতা একটি একক উদ্দেশ্য নয় বরং একটি বহু-কার্যকরী কাঠামো। একই কৌশলগুলি একটি মডেল ডিবাগ করতে, এর যুক্তি যাচাই করতে বা জিজ্ঞাসা করা প্রশ্নের উপর ভিত্তি করে অন্তর্দৃষ্টি বের করতে সহায়তা করতে পারে। ব্যাখ্যা সম্পর্কে বিভ্রান্তি প্রায়ই দেখা দেয় কারণ আলোচনা এই লক্ষ্যগুলির মধ্যে পার্থক্য করতে ব্যর্থ হয়।
আরও দরকারী প্রশ্ন হল একটি মডেল ব্যাখ্যাযোগ্য কিনা তা নয়, তবে আমরা যে কাজটি যত্ন করি তার জন্য এটি পর্যাপ্তভাবে ব্যাখ্যাযোগ্য কিনা। সেই প্রয়োজনীয়তা সর্বদা প্রেক্ষাপটের উপর নির্ভর করে: উন্নয়ন, গবেষণা বা স্থাপনা।
এইভাবে দেখা হলে, ব্যাখ্যাযোগ্যতা মেশিন লার্নিং এর সীমাবদ্ধতা হিসাবে নয় বরং মানুষ এবং মডেলের মধ্যে একটি ইন্টারফেস হিসাবে বোঝা যায়। এটিই আমাদের নির্ণয়, যাচাই এবং শিখতে দেয়। এটি ছাড়া, ভবিষ্যদ্বাণীগুলি অস্বচ্ছ আউটপুট থেকে যায়। এটি তাদের বৈজ্ঞানিক বিশ্লেষণের বস্তু করে তোলে।
সুতরাং একটি মডেল ব্যাখ্যাযোগ্য কিনা তা জিজ্ঞাসা করার পরিবর্তে, আমাদের আরও সুনির্দিষ্ট প্রশ্ন জিজ্ঞাসা করা উচিত:
ব্যাখ্যা দিয়ে আমরা ঠিক কী বোঝাতে চাই?
একবার এই প্রশ্নটি পরিষ্কার হয়ে গেলে, ব্যাখ্যাযোগ্যতা একটি অস্পষ্ট প্রয়োজনীয়তা থেকে বাদ পড়ে এবং একটি বৈজ্ঞানিক হাতিয়ার হয়ে ওঠে।
আমি আশা করি আপনি এটা পছন্দ করেছেন! যদি আপনার কোন প্রশ্ন থাকে, প্রতিক্রিয়া ভাগ করতে চান, বা কেবল আপনার নিজের প্রকল্পগুলি প্রদর্শন করতে চান তবে আপনাকে আমার সাথে যোগাযোগ করতে স্বাগত জানাই।