কৃত্রিম বুদ্ধিমত্তা : কণ্ঠ নকল করছে এআই

মত ও পথ ডেস্ক

নমুনা ছবি

ভেবে দেখুন, যেখানে নিজের আত্মীয়স্বজন, বন্ধুবান্ধব, সন্তান, পরিচিতজন বা নিজের কণ্ঠই আর্থিক জালিয়াতিতে ব্যবহার করা হচ্ছে। ভীতিকর শোনালেও এটা এখন সম্ভব।

সংবাদমাধ্যম সূত্র বলছে, ভারতের হরিয়ানার এক ব্যক্তির ৩০ হাজার রুপি হাতিয়ে নেওয়া হয়েছে কৃত্রিম বুদ্ধিমত্তা (এআই) ব্যবহার করে। প্রতারিত ব্যক্তি প্রতারকের কাছ থেকে ফোন কল পেয়েছিলেন। সেখানে তাঁর বন্ধুর কণ্ঠে তাঁর সঙ্গে কথা বলা হয়। জানানো হয়, ওই বন্ধু দুর্ঘটনার পর হাসপাতালে ভর্তি আছেন। জরুরি প্রয়োজনে টাকা দরকার। প্রতারিত হওয়া ওই ব্যক্তি সঙ্গে সঙ্গেই টাকা পাঠিয়ে দেন মোবাইল ফিন্যান্সিয়াল সার্ভিস ব্যবহার করে। প্রতারিত ব্যক্তি পরে তাঁর বন্ধুকে ফোন করে তাঁর স্বাস্থ্য সম্পর্কে জানতে চাইলে বুঝতে পারেন তিনি প্রতারণার শিকার হয়েছেন। এ ঘটনার কিছুদিন আগে ভারতের শিমলায় এমনই ঘটনায় আরেক ব্যক্তি দুই লাখ রুপি খোয়ান। সেখানে প্রতারকরা তাঁর চাচার কণ্ঠ হুবহু নকল করে। আর তা করা হয় (এআই) ভয়েস ক্লোনিং টুল ব্যবহার করে।

অ্যান্টিভাইরাস নির্মাতা ম্যাকাফি বলছে, প্রায় ৮৩ শতাংশ ভারতীয় এমন জালিয়াতির ঘটনায় অর্থ হারিয়েছেন। ৬৯ শতাংশ ভারতীয় এআই ব্যবহৃত তৈরি কণ্ঠ ও মানুষের কণ্ঠের মধ্যে পার্থক্য বুঝতে পারছে না।

কৃত্রিম বুদ্ধিমত্তা জালিয়াত চক্রের জন্য বন্ধুবান্ধব ও পরিবারের সদস্যদের ভয়েস ক্লোন করা সহজ করে তুলছে। ফলে অনলাইন জালিয়াতির ঘটনা বেড়েই চলেছে। এআই ভয়েস ক্লোনিং, যা ভয়েস সংশ্লেষণ বা ভয়েস মিমিক্রি নামেও সুপরিচিত। বলতে গেলে প্রযুক্তি, যা মেশিন লার্নিং বা কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে একটি নির্দিষ্ট ব্যক্তির কণ্ঠকে অবিকল নকল করে। প্রযুক্তিতে ব্যক্তির কণ্ঠস্বরের বৈশিষ্ট্য বিশ্লেষণ করতে সুনির্দিষ্ট কণ্ঠের রেকর্ডিং আবশ্যক।

জালিয়াতি প্রতিহতে করণীয়…

অচেনা ও অপ্রত্যাশিত কল থেকে সব সময় সতর্ক থাকবেন।

খটকা লাগলে পরিচয় যাচাই করবেন। সন্দেহ হচ্ছে এমন ফোনকল মনোযোগ দিয়ে শুনবেন।

দুরবস্থা জানিয়ে স্পর্শকাতর কণ্ঠে টাকা চাইলে পরিস্থিতি যাচাই করবেন।

অডিও ক্লিপ অনলাইনে আপলোড থেকে বিরত থাকবেন।

শেয়ার করুন