Skip to player
Skip to main content
Search
Connect
Watch fullscreen
Like
Bookmark
Share
More
Add to Playlist
Report
DTU शोधकर्ताओं ने फेक न्यूज़, डीप फेक और हेट स्पीच का पता लगाने के लिए विकसित किया AI मॉडल; जानें कैसे करेगा काम?
ETVBHARAT
Follow
5 months ago
डीटीयू प्रो. दिनेश विश्वकर्मा अपनी टीम के साथ फेक न्यूज़, डीप फेक और हेट स्पीच को डिटेक्टर करने वाला एआई मॉडल बनाए.
Category
🗞
News
Transcript
Display full video transcript
00:00
social media
00:25
कि आज के दोर में कौन कंटेंट असली है और कौन सा नकली इसकी पहचान करना पब्लिक के लिए मुश्किल हो रहा है
00:32
यहां तक कि वीडियो भी एडिट करके किसी और का चेहरा लगा कर किसी और की आवाज का स्तेमाल करके बनाय जा रही है
00:39
ऐसे में पब्लिक को कई बार बने फ्रॉड में भी फसाया जा रहा है
00:44
लेकिन घबराने की बात नहीं है
00:46
दिल्ली टेकनोलोजिकल इन्वर्सिटी ने काफी हद तक इस समस्या का हल निकाल लिया है
00:51
आईए जानते हैं क्या है वो AI मॉडल जिसे अब फीक कंटेंट का पता लग सकीगा
00:56
दिल्ली टेकनोलोजिकल इन्वर्सिटी में IT विभाग के प्रमुक प्रफेसर दिनेश कुमार के गाइडेंस में AI मॉडल पर काम हो रहा है
01:05
AI बेस्ट अल्गोरिदम मॉडल तैयार किया गया है जिसकी मदद से किसी भी न्यूज की बारे में यह पता लगा सकते हैं कि वह फेक है या सही
01:14
इस समय हमारे साथ बाच्चीत के लिए मौजूद हैं
01:17
DTU के IT डिपार्टमेंट के HOD प्रोफेसर दिनेश कुमार विश्ट सुकर्मा आई जानते हैं हम प्रोफेसर साब से कि किस तरह का काम यहां पर हो रहा है
01:26
AI मॉडल किस तरीके के बिक्सित की जा रहा है
01:28
जी धन्यवाद हम लोग जैसा कि आपने बताया कि hate speech, fake news, deep fake
01:38
यह सभी अभी जब से जो है यह multimedia content है
01:42
सभी mobile का है, social media का time आया है
01:45
तो इस समय क्या है कि यह सभी चीजे बहुत आसानी से लोग जो है
01:50
इनका use कर रहे हैं
01:52
और use करके लोगों को किसी ने किसी माद्यम से उनको नुक्षान हो रहा है
01:58
क्योंकि सबका यह परपज होता है पहला कि हमें जो है
02:03
सही news का पता चले
02:05
और जो भी content हम देख रहे हैं
02:08
social media पे वो सही है या गलत है
02:11
तो उसके लिए पहला जैसे है कि fake news के लिए है
02:15
तो fake news में क्या होता है कि लोग fake news को promote करने के लिए
02:20
कई बार text में जो आप पढ़ते हैं
02:23
text में कोई चीज changes कर देते हैं
02:26
और ऐसे ही उसमें images हैं
02:28
तो images और text दोनों को एक साथ में
02:31
उनका आपस में कोई संबन नहीं है
02:33
बट लोग इस तरीके से modification कर देते हैं
02:35
क्या है कि जो visuals होते हैं
02:38
वो लोगों को बहुत ही attract करते हैं
02:40
तो visuals को लोग आसानी से देख लेते हैं
02:43
तो इन सभी चीजों के लिए
02:44
हम लोग अपना एक
02:46
algorithm built up करते हैं
02:49
जो कि fake अगर कोई news है
02:51
तो उसको हम लोग चेक कर सकते हैं
02:53
कि ये fake है
02:55
या ये जो है real news है
02:57
तो उसके लिए
02:58
जो हमारी algorithm काम करती है
03:00
उसके लिए हमारा जो एक
03:02
main इसमें जो
03:04
पापज होता है कि कहां से
03:06
हमें चेक किया जाए
03:07
कि news कहां की authentic होती है
03:10
और कहां से ऐसा portal है
03:12
कि जो कि हम इसको कह सकते है
03:14
कि ये हो सकता है
03:15
कि ये गलत हो
03:16
क्योंकि हम किसी को
03:17
गलत तो ऐसे नहीं कह सकते है
03:18
जब तक कि हम उसको proof ना
03:19
हम लोग इस पे जो research किये
03:22
तो इस research के माध्यम से
03:23
ये पता चला
03:24
कि जब भी कभी भी हम लोग
03:26
कोई गलत content बोलते है
03:28
so the way we are talking about how much we are smart
03:32
but sometimes sometimes things are like that
03:35
so cognitive science says that when we say something wrong
03:40
and if we say something wrong
03:42
the level of confidence that sometimes sometimes
03:45
changes something
03:47
so where it feels like I say hate speech
03:51
that no person is saying wrong
03:54
so it has been seen that the lip movement is all changes
03:59
that the lip syncing is wrong
04:03
so we see these things
04:05
which we try to know about it
04:08
that this may be a hate content
04:12
deep fake is a very threatening technology
04:17
which has been popular for some days
04:22
we have done a lot of research
04:25
and now we have done a lot of research
04:28
in India in the last one year or two years
04:31
but we have done research in the last five years
04:35
almost more than five years even in this field
04:38
so when we have seen this
04:40
we have seen this technology
04:43
we have seen this technology
04:45
this technology is very much misuse
04:46
this positive side
04:47
people don't explore it
04:49
but the negative side
04:51
people explore it
04:53
so first of all the time
04:54
this technology
04:55
this technology is very much
04:57
in pornography
04:59
is different
05:00
so we have seen this nature
05:02
we have seen this technology
05:04
so we have seen many people
05:06
in the future
05:08
and here we have seen it
05:10
in the current phase
05:11
many celebrities
05:12
who have been targeted
05:13
some people
05:14
to the other on the Perfection
05:15
people like that
05:16
who has been targeted
05:17
start target kiata hai.
05:19
To ye kahin na kahin se society ko
05:21
joh hai eek bhout hi negative hai
05:23
aur ye AI ka
05:25
eek joh bad
05:27
part hai loog isko AI
05:29
ke throo is tariqe se built up
05:31
kar djeti hai ki jis se ki
05:33
joh fake or real me
05:35
paichanna hai bhout hi muskil ho jata
05:37
hai eek normal users ke liye.
05:39
To isko detect kerne ke liye
05:41
hum loogu ne ispe algorithm
05:43
built up kiya hai. Jiske
05:45
maadhyam se algoritm
05:47
ko hum do samaamne bahasa me
05:49
boolene to ye eek computer program
05:50
hoota hai jiske maadhyam se
05:52
isko hum koi bhi content
05:55
ko hum check ker sakti hai.
05:56
Aaj kal bhout se media sansthano
05:58
ne fact check ka bhi system
06:00
shuru kiya hai. Unka fact check
06:02
kerne ka tariqa alag hai.
06:04
Usmei wa sambandit field ke reporter
06:06
ya dousre jankaro se khabro ki
06:08
pushdi kerti hai. Uske
06:10
adhar par usko fake therhatte
06:12
hai. Jibkki is model me ya subitha
06:14
upload hai ki news ke content
06:16
ko paste karne se hi
06:17
uske sahi ya fake honi ka
06:19
pata chal jata hai.
06:20
Jiske abhi aaj kal ee bhi hota hai ki
06:23
ham log
06:24
koosis karte hai ki joh data
06:28
me data ham log collect karte
06:29
hai ya hi models mein. Toh
06:31
hamne joh hai ek face detection
06:33
matlab faces ko automatic
06:35
identify karne ke liye algoritm
06:37
bina diya. Toh yeh hota hai ki usmei
06:40
kis tariqe ka features ham
06:42
use kar rahe hai hai. Toh
06:43
woh feature based pahele ki
06:45
approache johoti joh feature
06:46
based kam karthi thi abhi
06:47
joh machine learning based
06:49
hoti thi abhi deep learning ka
06:51
concept johan peh kiya hai ki
06:53
automatic feature extraction
06:54
hota hai. Toh usmei johada
06:56
karke yeh sabhi role nahi
06:57
hota hai ki face detection
06:59
asanhi se ham kar sakti hai. Pahle
07:00
hota tha ki feature based
07:02
approache use karthi thi. Toh
07:04
jismei kya hai ki agar ham
07:05
dhekhen ki different geographical
07:08
regions ko cover karheen. Toh
07:11
kahi pe kuchh loogun ka skin tone
07:12
different hota hai. Kuchh
07:13
jaghe pe skin tone different hota
07:15
hai. Toh woh sabhi entire universe
07:18
ko hume data me cover karna
07:20
chahiye. Jodat ki kubhi bhi
07:21
aisa na ho ki yeh jeghe ka
07:23
data kisi yor country ka hai
07:24
or johan ke loogun ka alag
07:26
eek ah matlab unki eek
07:29
biography hai. Aar us
07:30
madhyam se wo data ki
07:32
biasness arti hai. Toh
07:33
courses karthi hai ki data ka
07:34
ah pura world wide universe
07:37
ko cover karheen. Then only
07:38
ham loog usko use karheen.
07:40
Aar aisa agar ah loogun
07:42
ko liekin research mein hota
07:43
hai ki research loog kar rahe
07:45
hota hai. Toh data loog create
07:47
karne me thoda sa ah reluctant
07:49
hotate hai. Toh but yeh hai ki
07:51
abhi jaysay ham loogun ka
07:53
haan pe india me eai kiya
07:54
research barhta jara hai. Toh
07:56
india ka joh hai joh rool hai
07:58
india me dekh raha hoon ki
07:59
joh youth hai. Woh kaaphi
08:01
kuchh chijay joh hai ah banane
08:04
ke liek ke liek bade usukh hote
08:05
hain. But unko bola jaya ki
08:07
pahle build up karne se pahle
08:09
joh hamare resources hai jaysay ki
08:11
data sets vagara hai. Toh isko
08:13
ah generate karne ke liek
08:15
ah or isko create karheen. So that ki
08:18
aapni indian scenario mein kaise
08:20
woh algoritmse pahorm kar rahe
08:22
yoh programe kaise
08:23
chal raha hai. Woh chijay joh ke
08:25
liek fokus zaadha hai. Or ah ab
08:28
ispe kaaphi kuchh kam ho raha
08:30
hai. Or ah ane wale time mein ah
08:33
umeed karte hai ki aur ispe
08:34
aachha kam ho ga.
08:35
woh ai algoritm joh model
08:38
apne wixit ki hai. Woh abhi
08:39
kis form mein hain. Or ye
08:41
aage public ke use ke liye. Ah
08:43
ah aap ke form mein aayega. Yaha
08:45
website ke form mein aayega. Kaisa
08:47
hooga. Kya?
08:47
Kya? Aapne bohut hi
08:50
achha sawal e pohucha ispe. Ah
08:52
hoota hai kya ki ham loog
08:53
research karte hai. Toh
08:55
hamara joh abhi tak ka
08:58
objective jahda karke hoota hai
08:59
india me. Ki loog research
09:01
karte hai. Or isko
09:02
publish karte hai. Or publish
09:05
karne ke baad usko jahda karke
09:07
thoda sa hai ki usko kahtate
09:08
hai ki thik hai dousare kisii
09:09
kam pe. Phr lag jate hai. India
09:11
me joh researches jahda
09:12
karke hootate hai. Pahele
09:13
ka. But abhi joh scenario
09:15
hai. Woh ab change ho raha
09:16
hai. Toh jab bhi research
09:18
karte hai. Toh research ko
09:19
ye dhekhte hai ki ye kis ke
09:21
kam ka hai. Or kis ke
09:23
liye ban sakta hai. Ki ye joh
09:25
hai kam haa sakta hai. Toh
09:27
ham loog ko ye dhekhte hai ki
09:28
kis product ke form mein
09:30
isko deliver kiya jai. Toh
09:32
jasai example ke tawar pe hai ki
09:34
fake news ka hai. Toh
09:37
ispe ya hate speech
09:39
detection ka hai. Ya deep
09:41
fake detection ka hai. Toh
09:42
iske liye ab joh pryaas hai ki
09:45
kahin eh kahin se hum koji
09:46
application bana dhe. Jaisa ki
09:48
web application bana dhe. Ya
09:50
ye koji app bana dhe. Jiske
09:52
madhyam se kiya hai ki joh bhi
09:53
ek normal user hai. Usko
09:55
check kar sakay. Or is
09:57
dhisa mein abh jahda karke
09:59
kam ho raha hai. Kiunki abh
10:01
focus zyadha karke hai ki product
10:03
waste research hume karni hai. So
10:04
that ki humare country ko
10:05
aapne products bane aur country ko
10:08
jyadha fayda ho. Or
10:09
yehaan ke loog jyadha isko use
10:11
kar sake.
10:12
Professor Dinesh Vishkarma
10:14
batatye hai ki aaj kal youtuber
10:15
bharate ja raha hai. YouTube channel
10:17
is tarah ki thumbnail ka
10:19
istimual karte hai ki
10:20
us video mein us thumbnail
10:21
sammandit kuch hota hi
10:23
nahi hai. Log thumbnail
10:24
se attract ho kar us
10:25
video ko antitak
10:26
dhekha lietate hai. Or
10:28
baad mei thaga hua
10:29
mehsus karte hai. Is
10:30
liye aaisi
10:31
či jyajohu pere rok
10:31
lagane ki liye bhi
10:32
technique model
10:33
bixit karne ki
10:34
zarurat hai.
10:36
Dilli se
10:36
ETV bharat ke liye
10:38
Rahul Chauhan ki
10:39
report.
10:39
Hãy subscribe cho kênh La La School Để không bỏ lỡ những video hấp dẫn
Be the first to comment
Add your comment
Recommended
4:00
|
Up next
कश्मीर में बढ़ रहा है बिल्लियां पालने का चलन! कब, इसे इस्लाम के खिलाफ माना जाता?
ETVBHARAT
3 months ago
4:07
आखिर ये भी तो इंसान हैं, इनका अंतहीन दर्द कौन समझेगा, कहां है समानता का अधिकार ?
ETVBHARAT
6 months ago
3:37
सीएम की विदेश यात्रा पर बाबूलाल मरांडी का कटाक्ष, बोले- उद्योग मंत्री के बिना कैसे आएगा निवेश?
ETVBHARAT
6 months ago
5:27
पवन सिंह की पत्नी ज्योति सिंह का बड़ा खुलासा- 7 सालों में पति ने कुछ नहीं दिया, जानें और क्या-क्या कहा?
ETVBHARAT
5 months ago
3:29
कुल्लू मनाली सड़क की बहाली के लिए अब एयरड्रॉप होगी मशीनरी, NHAI का बड़ा फैसला
ETVBHARAT
4 weeks ago
1:02
कौन होगा हिमाचल का नया कांग्रेस अध्यक्ष, इस सवाल पर सीएम सुखविंदर ने जानें क्या कहा?
ETVBHARAT
2 months ago
9:37
निजी स्कूलों में पढ़ने वाले बच्चों का डेटा लीक! अभिभावकों को प्राइवेट कोचिंग सेंटरों से आ रहे हैं फोन, क्या सुरक्षित हैं बच्चे?
ETVBHARAT
3 months ago
2:29
इस शहर को नहीं मिलने वाली कोई नई प्लाइट्स सुविधा, मंत्री राकेश सिंह ने क्यों कही ऐसी बात?
ETVBHARAT
9 months ago
5:04
कई अनसुलझे सवालों में उलझा उत्तराखंड का 'सख्त' भू कानून, क्या सही में है सशक्त?
ETVBHARAT
5 months ago
1:31
कन्नौज में अमिताभ ठाकुर के प्रवेश पर रोक, जानते हैं अमिताभ ठाकुर ने क्या कहा?
Patrika
1 year ago
1:11
कानपुर पहुंचीं एक्ट्रेस सुष्मिता सेन; फैंस से बोलीं- इतना प्यार देने के लिए शुक्रिया, क्या मैं सेल्फी ले सकती हूं?
ETVBHARAT
3 days ago
2:31
कांग्रेस ने भारतीय सेना के शौर्य को किया सलाम, बोले बघेल- पता नहीं पाकिस्तान को ड्रोन चलाने आता भी है कि नहीं?
ETVBHARAT
5 months ago
1:22
कौन हैं नीरज भारती? जिनके एक पोस्ट से मच गया सियासी भूचाल, खुद कृषि मंत्री को सामने आकर देनी पड़ी सफाई
ETVBHARAT
4 months ago
1:08
कानपुर में उपभोक्ताओं को पहुंच रहे गलत बिजली बिल, जानिए कैसे होगा समस्या का समाधान?
ETVBHARAT
9 months ago
0:41
बीजेपी नेत्री के बेटे की रंगीनमिजाजी के चर्चे, शिवपुरी में उबाल, गिरफ्तारी क्यों नहीं?
ETVBHARAT
5 months ago
4:20
AI के जमाने में कलम-दवात के जादू को जिंदा रखे है लखनऊ की ये अनोखी दुकान; फाउंटेन पेन के हर मर्ज का होता यहां इलाज
ETVBHARAT
4 weeks ago
0:40
मंत्री दिनेश प्रताप सिंह का विवादित बयान; बोले- अबकी भी साक्ष्य मांग रहे, ...कभी चुटकी भर सिंदूर भरा ही नहीं, वो क्या जाने इसका महत्व?
ETVBHARAT
4 months ago
4:35
धर्म नगरी उज्जयिनी में श्राद्ध पक्ष का महत्व, तर्पण करने क्षिप्रा किनारे क्यों पहुंचते हैं हजारों लोग?
ETVBHARAT
4 weeks ago
4:27
बुंदेलखंड के बीड़ी उद्योग पर GST इफेक्ट, सिमटते कारोबार से श्रमिकों के क्या बदलेंगे दिन?
ETVBHARAT
4 weeks ago
2:10
सांसदों-विधायकों को सैल्यूट मारने से ठीक होगी कानून व्यवस्था? जीतू पटवारी का सवाल
ETVBHARAT
5 months ago
1:29
कन्नौज में नवाब सिंह यादव की गिरफ्तार, क्या कहते हैं पुलिस अधीक्षक?
Patrika
1 year ago
5:54
पीएम नरेंद्र मोदी की मणिपुर यात्रा पर झामुमो ने कसा तंज, पूछा- प्रधानमंत्री को कैसे याद आ गया मणिपुर?
ETVBHARAT
3 weeks ago
0:19
भिवानी की टीचर मनीषा की डेथ मिस्ट्री कब सुलझेगी ?, क्या CBI ढूंढ निकालेगी पूरा सच ? अंतिम संस्कार के लिए कैसे माने परिजन ?
ETVBHARAT
6 weeks ago
0:48
नकली मावा की खेप जब्त, कैसे करें असली और मिलावटी की पहचान?
ETVBHARAT
2 months ago
6:10
मनाली में युवक की हत्या मामले में आरोपी गिरफ्तार, क्या है इस मर्डर के पीछे की कहानी?
ETVBHARAT
8 months ago
Be the first to comment