Skip to playerSkip to main content
  • 5 months ago
डीटीयू प्रो. दिनेश विश्वकर्मा अपनी टीम के साथ फेक न्यूज़, डीप फेक और हेट स्पीच को डिटेक्टर करने वाला एआई मॉडल बनाए.

Category

🗞
News
Transcript
00:00social media
00:25कि आज के दोर में कौन कंटेंट असली है और कौन सा नकली इसकी पहचान करना पब्लिक के लिए मुश्किल हो रहा है
00:32यहां तक कि वीडियो भी एडिट करके किसी और का चेहरा लगा कर किसी और की आवाज का स्तेमाल करके बनाय जा रही है
00:39ऐसे में पब्लिक को कई बार बने फ्रॉड में भी फसाया जा रहा है
00:44लेकिन घबराने की बात नहीं है
00:46दिल्ली टेकनोलोजिकल इन्वर्सिटी ने काफी हद तक इस समस्या का हल निकाल लिया है
00:51आईए जानते हैं क्या है वो AI मॉडल जिसे अब फीक कंटेंट का पता लग सकीगा
00:56दिल्ली टेकनोलोजिकल इन्वर्सिटी में IT विभाग के प्रमुक प्रफेसर दिनेश कुमार के गाइडेंस में AI मॉडल पर काम हो रहा है
01:05AI बेस्ट अल्गोरिदम मॉडल तैयार किया गया है जिसकी मदद से किसी भी न्यूज की बारे में यह पता लगा सकते हैं कि वह फेक है या सही
01:14इस समय हमारे साथ बाच्चीत के लिए मौजूद हैं
01:17DTU के IT डिपार्टमेंट के HOD प्रोफेसर दिनेश कुमार विश्ट सुकर्मा आई जानते हैं हम प्रोफेसर साब से कि किस तरह का काम यहां पर हो रहा है
01:26AI मॉडल किस तरीके के बिक्सित की जा रहा है
01:28जी धन्यवाद हम लोग जैसा कि आपने बताया कि hate speech, fake news, deep fake
01:38यह सभी अभी जब से जो है यह multimedia content है
01:42सभी mobile का है, social media का time आया है
01:45तो इस समय क्या है कि यह सभी चीजे बहुत आसानी से लोग जो है
01:50इनका use कर रहे हैं
01:52और use करके लोगों को किसी ने किसी माद्यम से उनको नुक्षान हो रहा है
01:58क्योंकि सबका यह परपज होता है पहला कि हमें जो है
02:03सही news का पता चले
02:05और जो भी content हम देख रहे हैं
02:08social media पे वो सही है या गलत है
02:11तो उसके लिए पहला जैसे है कि fake news के लिए है
02:15तो fake news में क्या होता है कि लोग fake news को promote करने के लिए
02:20कई बार text में जो आप पढ़ते हैं
02:23text में कोई चीज changes कर देते हैं
02:26और ऐसे ही उसमें images हैं
02:28तो images और text दोनों को एक साथ में
02:31उनका आपस में कोई संबन नहीं है
02:33बट लोग इस तरीके से modification कर देते हैं
02:35क्या है कि जो visuals होते हैं
02:38वो लोगों को बहुत ही attract करते हैं
02:40तो visuals को लोग आसानी से देख लेते हैं
02:43तो इन सभी चीजों के लिए
02:44हम लोग अपना एक
02:46algorithm built up करते हैं
02:49जो कि fake अगर कोई news है
02:51तो उसको हम लोग चेक कर सकते हैं
02:53कि ये fake है
02:55या ये जो है real news है
02:57तो उसके लिए
02:58जो हमारी algorithm काम करती है
03:00उसके लिए हमारा जो एक
03:02main इसमें जो
03:04पापज होता है कि कहां से
03:06हमें चेक किया जाए
03:07कि news कहां की authentic होती है
03:10और कहां से ऐसा portal है
03:12कि जो कि हम इसको कह सकते है
03:14कि ये हो सकता है
03:15कि ये गलत हो
03:16क्योंकि हम किसी को
03:17गलत तो ऐसे नहीं कह सकते है
03:18जब तक कि हम उसको proof ना
03:19हम लोग इस पे जो research किये
03:22तो इस research के माध्यम से
03:23ये पता चला
03:24कि जब भी कभी भी हम लोग
03:26कोई गलत content बोलते है
03:28so the way we are talking about how much we are smart
03:32but sometimes sometimes things are like that
03:35so cognitive science says that when we say something wrong
03:40and if we say something wrong
03:42the level of confidence that sometimes sometimes
03:45changes something
03:47so where it feels like I say hate speech
03:51that no person is saying wrong
03:54so it has been seen that the lip movement is all changes
03:59that the lip syncing is wrong
04:03so we see these things
04:05which we try to know about it
04:08that this may be a hate content
04:12deep fake is a very threatening technology
04:17which has been popular for some days
04:22we have done a lot of research
04:25and now we have done a lot of research
04:28in India in the last one year or two years
04:31but we have done research in the last five years
04:35almost more than five years even in this field
04:38so when we have seen this
04:40we have seen this technology
04:43we have seen this technology
04:45this technology is very much misuse
04:46this positive side
04:47people don't explore it
04:49but the negative side
04:51people explore it
04:53so first of all the time
04:54this technology
04:55this technology is very much
04:57in pornography
04:59is different
05:00so we have seen this nature
05:02we have seen this technology
05:04so we have seen many people
05:06in the future
05:08and here we have seen it
05:10in the current phase
05:11many celebrities
05:12who have been targeted
05:13some people
05:14to the other on the Perfection
05:15people like that
05:16who has been targeted
05:17start target kiata hai.
05:19To ye kahin na kahin se society ko
05:21joh hai eek bhout hi negative hai
05:23aur ye AI ka
05:25eek joh bad
05:27part hai loog isko AI
05:29ke throo is tariqe se built up
05:31kar djeti hai ki jis se ki
05:33joh fake or real me
05:35paichanna hai bhout hi muskil ho jata
05:37hai eek normal users ke liye.
05:39To isko detect kerne ke liye
05:41hum loogu ne ispe algorithm
05:43built up kiya hai. Jiske
05:45maadhyam se algoritm
05:47ko hum do samaamne bahasa me
05:49boolene to ye eek computer program
05:50hoota hai jiske maadhyam se
05:52isko hum koi bhi content
05:55ko hum check ker sakti hai.
05:56Aaj kal bhout se media sansthano
05:58ne fact check ka bhi system
06:00shuru kiya hai. Unka fact check
06:02kerne ka tariqa alag hai.
06:04Usmei wa sambandit field ke reporter
06:06ya dousre jankaro se khabro ki
06:08pushdi kerti hai. Uske
06:10adhar par usko fake therhatte
06:12hai. Jibkki is model me ya subitha
06:14upload hai ki news ke content
06:16ko paste karne se hi
06:17uske sahi ya fake honi ka
06:19pata chal jata hai.
06:20Jiske abhi aaj kal ee bhi hota hai ki
06:23ham log
06:24koosis karte hai ki joh data
06:28me data ham log collect karte
06:29hai ya hi models mein. Toh
06:31hamne joh hai ek face detection
06:33matlab faces ko automatic
06:35identify karne ke liye algoritm
06:37bina diya. Toh yeh hota hai ki usmei
06:40kis tariqe ka features ham
06:42use kar rahe hai hai. Toh
06:43woh feature based pahele ki
06:45approache johoti joh feature
06:46based kam karthi thi abhi
06:47joh machine learning based
06:49hoti thi abhi deep learning ka
06:51concept johan peh kiya hai ki
06:53automatic feature extraction
06:54hota hai. Toh usmei johada
06:56karke yeh sabhi role nahi
06:57hota hai ki face detection
06:59asanhi se ham kar sakti hai. Pahle
07:00hota tha ki feature based
07:02approache use karthi thi. Toh
07:04jismei kya hai ki agar ham
07:05dhekhen ki different geographical
07:08regions ko cover karheen. Toh
07:11kahi pe kuchh loogun ka skin tone
07:12different hota hai. Kuchh
07:13jaghe pe skin tone different hota
07:15hai. Toh woh sabhi entire universe
07:18ko hume data me cover karna
07:20chahiye. Jodat ki kubhi bhi
07:21aisa na ho ki yeh jeghe ka
07:23data kisi yor country ka hai
07:24or johan ke loogun ka alag
07:26eek ah matlab unki eek
07:29biography hai. Aar us
07:30madhyam se wo data ki
07:32biasness arti hai. Toh
07:33courses karthi hai ki data ka
07:34ah pura world wide universe
07:37ko cover karheen. Then only
07:38ham loog usko use karheen.
07:40Aar aisa agar ah loogun
07:42ko liekin research mein hota
07:43hai ki research loog kar rahe
07:45hota hai. Toh data loog create
07:47karne me thoda sa ah reluctant
07:49hotate hai. Toh but yeh hai ki
07:51abhi jaysay ham loogun ka
07:53haan pe india me eai kiya
07:54research barhta jara hai. Toh
07:56india ka joh hai joh rool hai
07:58india me dekh raha hoon ki
07:59joh youth hai. Woh kaaphi
08:01kuchh chijay joh hai ah banane
08:04ke liek ke liek bade usukh hote
08:05hain. But unko bola jaya ki
08:07pahle build up karne se pahle
08:09joh hamare resources hai jaysay ki
08:11data sets vagara hai. Toh isko
08:13ah generate karne ke liek
08:15ah or isko create karheen. So that ki
08:18aapni indian scenario mein kaise
08:20woh algoritmse pahorm kar rahe
08:22yoh programe kaise
08:23chal raha hai. Woh chijay joh ke
08:25liek fokus zaadha hai. Or ah ab
08:28ispe kaaphi kuchh kam ho raha
08:30hai. Or ah ane wale time mein ah
08:33umeed karte hai ki aur ispe
08:34aachha kam ho ga.
08:35woh ai algoritm joh model
08:38apne wixit ki hai. Woh abhi
08:39kis form mein hain. Or ye
08:41aage public ke use ke liye. Ah
08:43ah aap ke form mein aayega. Yaha
08:45website ke form mein aayega. Kaisa
08:47hooga. Kya?
08:47Kya? Aapne bohut hi
08:50achha sawal e pohucha ispe. Ah
08:52hoota hai kya ki ham loog
08:53research karte hai. Toh
08:55hamara joh abhi tak ka
08:58objective jahda karke hoota hai
08:59india me. Ki loog research
09:01karte hai. Or isko
09:02publish karte hai. Or publish
09:05karne ke baad usko jahda karke
09:07thoda sa hai ki usko kahtate
09:08hai ki thik hai dousare kisii
09:09kam pe. Phr lag jate hai. India
09:11me joh researches jahda
09:12karke hootate hai. Pahele
09:13ka. But abhi joh scenario
09:15hai. Woh ab change ho raha
09:16hai. Toh jab bhi research
09:18karte hai. Toh research ko
09:19ye dhekhte hai ki ye kis ke
09:21kam ka hai. Or kis ke
09:23liye ban sakta hai. Ki ye joh
09:25hai kam haa sakta hai. Toh
09:27ham loog ko ye dhekhte hai ki
09:28kis product ke form mein
09:30isko deliver kiya jai. Toh
09:32jasai example ke tawar pe hai ki
09:34fake news ka hai. Toh
09:37ispe ya hate speech
09:39detection ka hai. Ya deep
09:41fake detection ka hai. Toh
09:42iske liye ab joh pryaas hai ki
09:45kahin eh kahin se hum koji
09:46application bana dhe. Jaisa ki
09:48web application bana dhe. Ya
09:50ye koji app bana dhe. Jiske
09:52madhyam se kiya hai ki joh bhi
09:53ek normal user hai. Usko
09:55check kar sakay. Or is
09:57dhisa mein abh jahda karke
09:59kam ho raha hai. Kiunki abh
10:01focus zyadha karke hai ki product
10:03waste research hume karni hai. So
10:04that ki humare country ko
10:05aapne products bane aur country ko
10:08jyadha fayda ho. Or
10:09yehaan ke loog jyadha isko use
10:11kar sake.
10:12Professor Dinesh Vishkarma
10:14batatye hai ki aaj kal youtuber
10:15bharate ja raha hai. YouTube channel
10:17is tarah ki thumbnail ka
10:19istimual karte hai ki
10:20us video mein us thumbnail
10:21sammandit kuch hota hi
10:23nahi hai. Log thumbnail
10:24se attract ho kar us
10:25video ko antitak
10:26dhekha lietate hai. Or
10:28baad mei thaga hua
10:29mehsus karte hai. Is
10:30liye aaisi
10:31či jyajohu pere rok
10:31lagane ki liye bhi
10:32technique model
10:33bixit karne ki
10:34zarurat hai.
10:36Dilli se
10:36ETV bharat ke liye
10:38Rahul Chauhan ki
10:39report.
10:39Hãy subscribe cho kênh La La School Để không bỏ lỡ những video hấp dẫn
Be the first to comment
Add your comment

Recommended