
এআই ট্রেন্ডস স্টাফ দ্বারা
নিয়োগের ক্ষেত্রে এআই এখন চাকরির বিবরণ লেখা, প্রার্থীদের স্ক্রীনিং এবং সাক্ষাত্কার স্বয়ংক্রিয়ভাবে ব্যবহার করা হয়, তবে এটি সতর্কতার সাথে প্রয়োগ না করলে এটি ব্যাপক বৈষম্যের ঝুঁকি তৈরি করে।

এটি ছিল ইউএস ইক্যুয়াল অপরচুনিটি কমিশনের কমিশনার কিথ সন্ডারলিং এর বার্তা, তিনি সম্মেলনে বক্তৃতা করেছিলেন। এআই বিশ্ব সরকার ইভেন্টটি লাইভ এবং কার্যত গত সপ্তাহে ভার্জিনিয়ার আলেকজান্দ্রিয়ায় অনুষ্ঠিত হয়েছিল। জাতি, বর্ণ, ধর্ম, লিঙ্গ, জাতীয় উত্স, বয়স বা অক্ষমতার কারণে চাকরির আবেদনকারীদের বিরুদ্ধে বৈষম্য নিষিদ্ধ করে এমন ফেডারেল আইন প্রয়োগ করার জন্য সন্ডারলিং দায়ী।
“মানবসম্পদ বিভাগগুলিতে AI মূলধারায় পরিণত হবে এই ধারণাটি দুই বছর আগে বিজ্ঞান কল্পকাহিনীর কাছাকাছি ছিল, কিন্তু মহামারীটি নিয়োগকর্তাদের দ্বারা AI ব্যবহার করার হারকে ত্বরান্বিত করেছে,” তিনি বলেছিলেন। “ভার্চুয়াল নিয়োগ এখন এখানে থাকার জন্য।”
এইচআর পেশাদারদের জন্য এই ব্যস্ত সময়। “মহান পদত্যাগগুলি মহান পুনর্নিয়োগের দিকে নিয়ে যাচ্ছে, এবং AI এতে এমন একটি ভূমিকা পালন করবে যা আমরা আগে দেখিনি,” সন্ডারলিং বলেছেন।
এআই বছরের পর বছর ধরে নিয়োগে নিযুক্ত হয়েছে – “এটি রাতারাতি ঘটেনি।” – অ্যাপ্লিকেশনগুলির সাথে চ্যাট করা, একজন প্রার্থী চাকরি নেবে কিনা তা ভবিষ্যদ্বাণী করা, তারা কী ধরণের কর্মচারী হবে তা ভবিষ্যদ্বাণী করা এবং আপস্কিলিং এবং রিস্কিলিংয়ের সুযোগগুলি ম্যাপ করা সহ কাজের জন্য৷ “সংক্ষেপে, AI এখন HR কর্মীদের দ্বারা নেওয়া সমস্ত সিদ্ধান্ত গ্রহণ করছে,” যেটিকে তিনি ভাল বা খারাপ বলে বর্ণনা করেছেন।
“যখন যত্ন সহকারে ডিজাইন করা এবং যথাযথভাবে ব্যবহার করা হয়, তখন এআই কর্মক্ষেত্রকে আরও ন্যায্য করে তোলার সম্ভাবনা রাখে,” সন্ডারলিং বলেছেন। “কিন্তু যখন অসতর্কভাবে প্রয়োগ করা হয়, তখন AI এমন স্কেলে বৈষম্যের দিকে নিয়ে যেতে পারে যা আমরা আগে কোনো HR পেশাদার দ্বারা দেখিনি।”
নিয়োগের জন্য ব্যবহৃত AI মডেলগুলির প্রশিক্ষণের ডেটাসেটগুলি বৈচিত্র্যকে প্রতিফলিত করতে হবে
কারণ এআই মডেল প্রশিক্ষণের ডেটার উপর নির্ভর করে। যদি কোম্পানির বর্তমান কর্মীবাহিনীকে একটি প্রশিক্ষণের ভিত্তি হিসাবে ব্যবহার করা হয়, “এটি স্থিতাবস্থার প্রতিলিপি তৈরি করবে। যদি এটি প্রধানত একটি লিঙ্গ বা একটি জাতি হয় তবে এটি এটির প্রতিলিপি করবে,” তিনি বলেছিলেন। বিপরীতভাবে, এআই জাতি, জাতিগত পটভূমি বা অক্ষমতার অবস্থার ভিত্তিতে নিয়োগের ক্ষেত্রে পক্ষপাতের ঝুঁকি কমাতে সাহায্য করতে পারে। “আমি এআইকে কর্মক্ষেত্রে বৈষম্যের উন্নতি দেখতে চাই,” তিনি বলেছিলেন।
অ্যামাজন 2014 সালে একটি নিয়োগের আবেদন তৈরি করা শুরু করে এবং সময়ের সাথে সাথে এটি তার সুপারিশগুলিতে মহিলাদের প্রতি বৈষম্যমূলক আচরণ করে, কারণ AI মডেলটিকে গত 10 বছর থেকে কোম্পানির নিজস্ব নিয়োগের রেকর্ডের ডেটাসেটে প্রশিক্ষণ দেওয়া হয়েছিল, যা প্রধানত পুরুষ ছিল। অ্যামাজন ডেভেলপাররা এটি ঠিক করার চেষ্টা করেছিল কিন্তু শেষ পর্যন্ত 2017 সালে সিস্টেমটি মেরে ফেলেছিল।
Facebook সম্প্রতি মার্কিন সরকারের দেওয়া নাগরিক দাবিগুলি নিষ্পত্তি করতে $14.25 মিলিয়ন দিতে সম্মত হয়েছে যে সামাজিক মিডিয়া সংস্থাটি মার্কিন কর্মীদের প্রতি বৈষম্যমূলক আচরণ করেছে এবং ফেডারেল নিয়োগের নিয়ম লঙ্ঘন করেছে, একটি অ্যাকাউন্ট অনুসারে। রয়টার্স. মামলাটি শ্রম শংসাপত্রের জন্য ফেসবুকের PERM প্রোগ্রাম ব্যবহারের উপর দৃষ্টি নিবদ্ধ করে। সরকার দেখেছে যে ফেসবুক PERM প্রোগ্রামের অধীনে অস্থায়ী ভিসাধারীদের জন্য সংরক্ষিত চাকরির জন্য আমেরিকান কর্মীদের নিয়োগ দিতে অস্বীকার করেছে।
“নিয়োগকারী পুল থেকে লোকেদের বাদ দেওয়া একটি লঙ্ঘন,” সন্ডারলিং বলেছেন। যদি এআই প্রোগ্রাম “সেই শ্রেণীর জন্য কাজের সুযোগের অস্তিত্বকে বাধা দেয়, তারা তাদের অধিকার প্রয়োগ করতে পারে না, বা যদি এটি সুরক্ষিত শ্রেণীকে ডাউনগ্রেড করে, তবে এটি আমাদের ডোমেনের মধ্যে রয়েছে,” তিনি বলেছিলেন।
কর্মসংস্থান মূল্যায়ন, যা দ্বিতীয় বিশ্বযুদ্ধের পরে আরও সাধারণ হয়ে উঠেছে, মানব সম্পদ পরিচালকদের উচ্চ মূল্য প্রদান করেছে এবং AI এর সাহায্যে নিয়োগের ক্ষেত্রে পক্ষপাত কমানোর সম্ভাবনা রয়েছে। “একই সময়ে, তারা বৈষম্যের দাবির জন্য ঝুঁকিপূর্ণ, তাই নিয়োগকর্তাদের সতর্কতা অবলম্বন করতে হবে এবং একটি অসতর্ক পন্থা গ্রহণ করার সামর্থ্য নেই,” সন্ডারলিং বলেছেন। “ভুল তথ্য সিদ্ধান্ত নেওয়ার ক্ষেত্রে পক্ষপাত বাড়াবে। নিয়োগকর্তাদের বৈষম্যমূলক ফলাফলের প্রতি সতর্ক থাকতে হবে।”
তিনি জাতি, লিঙ্গ এবং অন্যান্য কারণের উপর ভিত্তি করে পক্ষপাতের ঝুঁকির জন্য ডেটা স্ক্রিন করে এমন বিক্রেতাদের কাছ থেকে সমাধানগুলি নিয়ে গবেষণা করার পরামর্শ দেন।
একটি উদাহরণ থেকে হয় হায়ারভিউ সাউথ জর্ডান, উটাহ, যেটি ইউএস ইকুয়াল অপরচুনিটি কমিশনের সমান সুযোগ নির্দেশিকাগুলির উপর ভিত্তি করে একটি নিয়োগ প্ল্যাটফর্ম তৈরি করেছে যা বিশেষভাবে অন্যায্য নিয়োগের অনুশীলনগুলি হ্রাস করার জন্য ডিজাইন করা হয়েছে, একটি নিবন্ধ অনুসারে সব কাজ.
এর ওয়েবসাইটে AI নৈতিক নীতির একটি পোস্টে বলা হয়েছে, “যেহেতু HireVue আমাদের পণ্যে AI প্রযুক্তি ব্যবহার করে, আমরা সক্রিয়ভাবে কোনো গোষ্ঠী বা ব্যক্তির বিরুদ্ধে পক্ষপাতিত্বের প্রবর্তন বা বিস্তার রোধ করতে কাজ করি৷ আমরা আমাদের কাজে ব্যবহার করা ডেটাসেটগুলি সাবধানতার সাথে পর্যালোচনা করতে থাকব এবং সেগুলি যথাসম্ভব নির্ভুল এবং বৈচিত্র্যময় তা নিশ্চিত করব৷ আমরা আমাদের সক্ষমতাগুলিকে এগিয়ে নিয়ে যাচ্ছি, আমরা টিম গঠনের স্ট্রং থেকে নিরীক্ষণ কমাতে চেষ্টা করব৷ ব্যাকগ্রাউন্ডগুলি আমাদের সিস্টেমের লোকেদের সেরা প্রতিনিধিত্ব করে।”
অতিরিক্তভাবে, “আমাদের ডেটা বিজ্ঞানীরা এবং IO মনোবিজ্ঞানীরা এমনভাবে হাইয়ারভিউ মূল্যায়ন অ্যালগরিদম তৈরি করেন যাতে অ্যালগরিদম বিবেচনা থেকে ডেটা সরিয়ে দেয় যা মূল্যায়নের ভবিষ্যদ্বাণীমূলক নির্ভুলতাকে উল্লেখযোগ্যভাবে প্রভাবিত না করে বিরূপ প্রভাবে অবদান রাখে৷ ফলাফলটি একটি অত্যন্ত বৈধ, পক্ষপাত-কমায় এবং সমানভাবে মূল্যায়ন করার ক্ষেত্রে সক্রিয়ভাবে সহায়তা করে যা মানবিক মূল্যায়নের সুযোগ তৈরি করে৷ লিঙ্গ, জাতি, বয়স বা অক্ষমতার অবস্থা নির্বিশেষে।”

এআই মডেল প্রশিক্ষণের জন্য ব্যবহৃত ডেটাসেটের পক্ষপাতের সমস্যাটি নিয়োগের মধ্যে সীমাবদ্ধ নয়। AIcure-এর সিইও, লাইফ সায়েন্স ইন্ডাস্ট্রিতে সেবা করে এমন একটি এআই অ্যানালিটিক্স কোম্পানি ডাঃ এড ইকেগুচি সাম্প্রতিক একটি প্রবন্ধে বলেছেন স্বাস্থ্যসেবা আইটিনিউজ“এআই কেবলমাত্র যতটা ডেটা খাওয়ানো হয় ততটাই শক্তিশালী, এবং সম্প্রতি সেই ডেটা ব্যাকবোনের নির্ভরযোগ্যতা ক্রমবর্ধমানভাবে প্রশ্নবিদ্ধ হচ্ছে। আজকের এআই ডেভেলপারদের বৃহৎ, বৈচিত্র্যময় ডেটা সেটগুলিতে অ্যাক্সেস নেই যার উপর নতুন সরঞ্জামগুলিকে প্রশিক্ষণ এবং যাচাই করতে হবে।
তিনি যোগ করেছেন, “তাদের প্রায়শই ওপেন-সোর্স ডেটাসেটের সুবিধা নিতে হয়, কিন্তু এর মধ্যে অনেককে প্রধানত সাদা জনসংখ্যার স্বেচ্ছাসেবক কম্পিউটার প্রোগ্রামার ব্যবহার করে প্রশিক্ষিত করা হয়েছিল৷ কারণ অ্যালগরিদমগুলি প্রায়শই সীমিত বৈচিত্র্যের সাথে একক-অরিজিন ডেটা নমুনাগুলিতে প্রশিক্ষিত হয়, গবেষণায় অত্যন্ত নির্ভুল দেখায় এমন কৌশলগুলি যখন বৃহত্তর জাতি, বাস্তব বিশ্বের বিভিন্ন জনসংখ্যার ক্ষেত্রে প্রয়োগ করা হয় তখন অবিশ্বস্ত হতে পারে৷ দৃশ্যকল্প।”
এছাড়াও, “সমস্ত অ্যালগরিদমের জন্য শাসন এবং সমকক্ষ পর্যালোচনার একটি উপাদান থাকা উচিত, কারণ এমনকি সবচেয়ে কঠিন এবং পরীক্ষিত অ্যালগরিদমগুলিও অপ্রত্যাশিত ফলাফল পেতে বাধ্য৷ একটি অ্যালগরিদম কখনই শেখা হয় না৷–এটি ক্রমাগত বিকাশ করা উচিত এবং এটিকে উন্নত করার জন্য এটিতে আরও ডেটা দেওয়া উচিত।
এবং, “একটি শিল্প হিসাবে, আমাদের AI-এর উপসংহার সম্পর্কে আরও সন্দেহজনক হতে হবে এবং শিল্পে স্বচ্ছতাকে উত্সাহিত করতে হবে৷ কোম্পানিগুলিকে সহজে মৌলিক প্রশ্নের উত্তর দেওয়া উচিত, যেমন ‘অ্যালগরিদম কীভাবে প্রশিক্ষিত হয়েছিল? কিসের ভিত্তিতে এটি এই উপসংহার টানে?’
উত্স নিবন্ধ এবং তথ্য এখানে পড়ুন এআই বিশ্ব সরকারচরম রয়টার্স এবং থেকে স্বাস্থ্যসেবা আইটিনিউজ.