色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

計(jì)算機(jī)視覺(jué)研究中的新探索

商湯科技SenseTime ? 來(lái)源:未知 ? 作者:胡薇 ? 2018-07-09 14:13 ? 次閱讀

日前,由中國(guó)計(jì)算機(jī)學(xué)會(huì)(CCF)、雷鋒網(wǎng)、香港中文大學(xué)(深圳)聯(lián)合舉辦的2018 全球人工智能機(jī)器人峰會(huì)(CCF-GAIR)在深圳成功舉辦,來(lái)自學(xué)術(shù)界、工業(yè)界及投資界的眾多大牛,從產(chǎn)學(xué)研多個(gè)維度深度分享了AI技術(shù)的前沿研究動(dòng)態(tài)和技術(shù)落地方向。

商湯科技聯(lián)合創(chuàng)始人、香港中文大學(xué)-商湯科技聯(lián)合實(shí)驗(yàn)室主任林達(dá)華教授,在此次活動(dòng)上發(fā)表了題為“計(jì)算機(jī)視覺(jué)研究中的新探索”的演講,闡述了計(jì)算機(jī)視覺(jué)未來(lái)3~5年的研究方向。

林達(dá)華教授表示:以前我們要讓機(jī)器識(shí)別動(dòng)物,需要人工標(biāo)注很多動(dòng)物,標(biāo)注成本非常高。而人類(lèi)小時(shí)候?qū)W習(xí)動(dòng)物往往是看《動(dòng)物世界》去學(xué)的,這個(gè)方式促使我們想到一個(gè)方法,能不能通過(guò)看《動(dòng)物世界》把所有的動(dòng)物找到。這里面有一個(gè)天然的聯(lián)系,紀(jì)錄片上有字幕,字幕上有文字,可以把它和視覺(jué)上的場(chǎng)景連接在一起,我們?cè)O(shè)計(jì)了框架,把它的信息幾何方面的聯(lián)系,以及視覺(jué)跟文本之間的聯(lián)系建立起來(lái),最后我們得到了一個(gè)這樣的結(jié)果:我們?cè)跊](méi)有任何人工干預(yù)的情況下獲得幾十種動(dòng)物非常精確的識(shí)別,沒(méi)有任何標(biāo)注。

以下為林達(dá)華教授演講實(shí)錄:

今天非常榮幸能夠在這里分享港中文-商湯聯(lián)合實(shí)驗(yàn)室過(guò)去幾年的工作。今天,我的演講和前面幾位可能會(huì)有點(diǎn)不一樣,剛才幾位演講者在商業(yè)領(lǐng)域做了精彩的分享,相信大家都獲益良多。首先說(shuō)明一下我并沒(méi)有直接地去參與商湯在商業(yè)領(lǐng)域的運(yùn)作,所以大家如果要關(guān)心商湯什么時(shí)候上市,這個(gè)問(wèn)題我是回答不了的。但是我能夠告訴給大家的是,商湯公司不是一天建成的,它今天的成功也不僅僅是三年半的努力,它是建立在它背后這個(gè)實(shí)驗(yàn)室18年如一日的原創(chuàng)技術(shù)積累。我們今天在這個(gè)實(shí)驗(yàn)室所做的事情,它影響的不是商湯今天拿什么東西出去賺取利潤(rùn),而是商湯要做一個(gè)偉大的科技公司,在未來(lái)的3年、5年、10年要向什么地方走。

準(zhǔn)確率不是唯一的方向 目前人工智能還處于粗放型發(fā)展階段

在過(guò)去的8年時(shí)間中,計(jì)算機(jī)視覺(jué)可以說(shuō)是取得了一個(gè)突破性的進(jìn)展,最重要的在技術(shù)上的進(jìn)展應(yīng)該是深度學(xué)習(xí)的引入。在這個(gè)領(lǐng)域有一個(gè)非常高級(jí)別的比賽叫做ImageNet。在2012年之前,這個(gè)錯(cuò)誤率都是比較高的,2012年以后由于深度學(xué)習(xí)的引入,經(jīng)歷了4年的黃金時(shí)期。在這4年的黃金期里面,ImageNet的錯(cuò)誤率從16%下降到了接近3%。

在這里我想問(wèn)的一個(gè)問(wèn)題是,深度學(xué)習(xí)確實(shí)在這幾年的黃金時(shí)期取得了突破性的進(jìn)展,但是不是說(shuō)我們到了現(xiàn)在這個(gè)水平,計(jì)算機(jī)視覺(jué)的研究已經(jīng)終結(jié)了呢?從現(xiàn)在這個(gè)水平再往前看3年、5年、10年的時(shí)間,我們未來(lái)的研究方向應(yīng)該做什么?這是我們整個(gè)實(shí)驗(yàn)室,也包括商湯一直在思考的問(wèn)題。

事實(shí)上如果要回答這個(gè)問(wèn)題,我們可以看到,人工智能在過(guò)去幾年的成功,它不是偶然的,也并不僅僅只是算法發(fā)展的結(jié)果,它是很多的因素歷史性地交匯在一起,促成了這波人工智能浪潮。

第一個(gè)是數(shù)據(jù),我們的海量數(shù)據(jù)、運(yùn)用場(chǎng)景數(shù)據(jù)的積累,以及GPU的發(fā)展,計(jì)算能力大幅度的躍升,在這個(gè)基礎(chǔ)上,算法的進(jìn)展才帶來(lái)了今天人工智能的成功和在眾多應(yīng)用場(chǎng)景的落地。所以我在這里希望向大家傳遞的信息是,雖然大家看到人工智能的很多成功的故事,看到了算法方面的巨大進(jìn)展,但是人工智能不是一個(gè)魔術(shù),從某種意義上它就是在龐大的數(shù)據(jù)量、在巨大的計(jì)算能力支撐下的性能進(jìn)步。

這其實(shí)從某種意義上是一種非常粗放型的發(fā)展,大家都去追逐一個(gè)正確率,追求性能的目標(biāo)。最近幾年中國(guó)的公司在國(guó)際上所有比賽的榜單上都排到了前三名,但是這是以巨大的工程力量和資源投入為代價(jià)的,這種發(fā)展模式是不是可以持續(xù)?這是我們需要思考的問(wèn)題。回顧深度學(xué)習(xí)或者人工智能在過(guò)去幾年的發(fā)展,我覺(jué)得有很多的事情,我們還有很長(zhǎng)的路需要走。

效率、成本、質(zhì)量 人工智能發(fā)展有多方面不同含義

在這里分享幾個(gè)方向的思考,第一,是學(xué)習(xí)的效率,是不是充分地把我們的計(jì)算資源使用起來(lái)。第二,我們面對(duì)巨大的數(shù)據(jù)成本,或者標(biāo)注成本,如何解決這個(gè)困境。最后,就是說(shuō)我們雖然在榜單上拿到了99.9%的準(zhǔn)確率,但是這樣訓(xùn)練出來(lái)的模型是不是真正滿足我們的生活或者社會(huì)生產(chǎn)的需要?這些都是我們要把人工智能落地,推向更快、更好發(fā)展需要解決的問(wèn)題。

首先我們講第一個(gè)方面,效率。

我剛才說(shuō)過(guò),我們現(xiàn)在基本上是用粗放型的方法發(fā)展,就靠堆積數(shù)據(jù)、堆積計(jì)算資源,去獲得很高的性能,是資源的競(jìng)爭(zhēng),而不是效率的競(jìng)賽。但是我們未來(lái)要怎么發(fā)展,就需要進(jìn)一步回顧我們現(xiàn)在的模型和技術(shù)的模式,看看還有沒(méi)有優(yōu)化的空間。優(yōu)化的原理非常簡(jiǎn)單,就是把好鋼用在刀刃上。

舉一個(gè)具體的例子,我們?cè)趲啄昵熬烷_(kāi)始進(jìn)入了視頻領(lǐng)域,視頻是一個(gè)非常需要效率的地方,視頻的數(shù)據(jù)量非常龐大,一秒鐘的視頻就是24幀,一分鐘的視頻就差不多是1500幀,基本上相當(dāng)于一個(gè)中型的數(shù)據(jù)。利用傳統(tǒng)的處理圖像集的方式去處理視頻顯然是不合適的。

在2013、2014年的時(shí)候大部分的視頻分析方法采取的是比較簡(jiǎn)單的方式,每一幀都拿出來(lái)跑一個(gè)卷積網(wǎng)絡(luò),最后把它集成綜合到一起進(jìn)行判斷。雖然說(shuō)過(guò)去幾年計(jì)算資源發(fā)展非常快,但是GPU的顯存還是有限的,如果每一層都放到CNN去跑,GPU顯存只能容納10幀到20幀左右,一秒鐘的視頻就把GPU充滿了,是沒(méi)辦法對(duì)長(zhǎng)時(shí)間的視頻進(jìn)行分析的,這是一種非常低效的模式。

我們知道視頻相鄰幀之間是非常相似的,這一幀跑一次,下一幀再跑一次,大量的計(jì)算浪費(fèi)掉。我們看到了這個(gè)重復(fù)計(jì)算的低效,我們把這個(gè)采樣方法重新進(jìn)行了改變,改用了稀疏采樣,無(wú)論多長(zhǎng)的視頻進(jìn)來(lái),我都劃分成等長(zhǎng)的段落,每一段只取一幀或幾幀出來(lái),這樣我就能對(duì)視頻有一個(gè)完整的時(shí)間范圍覆蓋,自然分析出來(lái)的結(jié)果也會(huì)有比較高的可靠性和準(zhǔn)確性。憑借這個(gè)網(wǎng)絡(luò),我們拿到2016年ActivityNet的冠軍,現(xiàn)在很多實(shí)際中使用的長(zhǎng)視頻分析架構(gòu),都已經(jīng)采用了這種稀疏采樣的想法。

在這之后我們進(jìn)一步拓展我們的研究領(lǐng)域,不僅僅是做這個(gè)視頻理解,我們還進(jìn)一步做在視頻里面的物體的檢測(cè)。這也帶來(lái)一個(gè)新的困難,之前做分類(lèi)識(shí)別,我們可以分段,每一段拿出來(lái)會(huì)獲得一個(gè)大體上的理解。但是物體檢測(cè)沒(méi)辦法這么做,每一幀都需要把物體的位置輸出出來(lái),在時(shí)間上是不能稀疏的。這一頁(yè)slide顯示了我們?cè)?016年ImageNet比賽視頻物體檢測(cè)項(xiàng)目取得冠軍的網(wǎng)絡(luò),具體細(xì)節(jié)我不說(shuō)了,基本上就是把每一幀的特征拿出來(lái),判斷它的類(lèi)型是什么,對(duì)物體框的位置做出調(diào)整,然后把它串起來(lái)。這里面需要每一幀都要處理,當(dāng)時(shí)最厲害的GPU每秒鐘只能處理幾幀,需要大量的GPU才能把這個(gè)網(wǎng)絡(luò)訓(xùn)練出來(lái)。

我們希望把這樣一個(gè)技術(shù)用在實(shí)際場(chǎng)景,希望得到一個(gè)實(shí)時(shí)性的物體檢測(cè)的框架,要是我們每一幀都是按剛才的方法處理,需要140毫秒,是完全沒(méi)有辦法做到實(shí)時(shí),但是如果稀疏地去采,比如說(shuō)每20幀采一次,中間的幀怎么辦呢?

大家可能想到用插值的方法把它插出來(lái),但是我們發(fā)現(xiàn)這個(gè)方法對(duì)準(zhǔn)確度影響很大,隔10幀采一次,中間的準(zhǔn)確度差距很大。在新提出的方法里,我們利用幀與幀之間相互的關(guān)系,通過(guò)一個(gè)代價(jià)小得多的網(wǎng)絡(luò)模塊,只需要花5毫秒,在幀與幀之間傳遞信息,就能很好地保持了檢測(cè)精度。這樣我們重新改變了做視頻分析的路徑之后,整體的代價(jià)就得到了大幅度的下降。這里面沒(méi)有什么新鮮的東西,網(wǎng)絡(luò)都是那些網(wǎng)絡(luò),只是說(shuō)我們重新去規(guī)劃了視頻分析的計(jì)算路徑,重新設(shè)計(jì)了整個(gè)框架。

大家可以看看結(jié)果。上面是7毫秒逐幀處理的,我們2016年比賽就是用的這個(gè)網(wǎng)絡(luò),后面我們經(jīng)過(guò)改進(jìn)之后,超過(guò)62幀每秒,而且它的結(jié)果更加可靠、更加平滑,因?yàn)樗褂昧硕鄮g的關(guān)聯(lián)。

7fps

62fps + More Reliable

同樣我們商湯在做自動(dòng)駕駛,需要對(duì)駕駛過(guò)程中的場(chǎng)景自動(dòng)地進(jìn)行理解和語(yǔ)義分割,這也是一個(gè)非常成熟的領(lǐng)域。但大家的關(guān)注點(diǎn)一直沒(méi)到點(diǎn)子上,大家關(guān)注的是分割的準(zhǔn)確率,像素級(jí)的準(zhǔn)確率,這是沒(méi)有意義的。我們真正在做自動(dòng)駕駛,關(guān)心的是人在你車(chē)前的時(shí)候,你有多快的速度判斷出有個(gè)人在那里,然后做出一個(gè)非常緊急的處理。所以在自動(dòng)駕駛的場(chǎng)景,判斷的效率、判斷的速度是非常重要的。之前的方法處理每一幀要100多毫秒,如果真有一個(gè)人出現(xiàn)在車(chē)前面,一個(gè)緊急情況發(fā)生在前面的話,是來(lái)不及做出反應(yīng)的。

利用剛才所說(shuō)的方法,我們重新改造了一個(gè)模型,充分地使用了幀與幀之間的聯(lián)系,我們可以把每一幀處理的效能從600毫秒降低到60毫秒,大幅度地提高了這個(gè)技術(shù)對(duì)于突發(fā)情景響應(yīng)的速度。這里面其實(shí)也是使用了剛才類(lèi)似的方法,技術(shù)細(xì)節(jié)就不說(shuō)了。

其次,我們講第二個(gè)方面,成本。

剛才是說(shuō)效率上我們?cè)趺纯梢蕴岣撸酉聛?lái)是數(shù)據(jù)成本。我們經(jīng)常開(kāi)玩笑說(shuō),人工智能是先有人工再有智能,有多少人工就有多少智能。所以今天我們有人工智能的繁榮,我們不應(yīng)該忘記在背后有成千上萬(wàn)像這樣的人在背后默默地奉獻(xiàn),這就是我們數(shù)據(jù)的標(biāo)注員。一些大的公司,有上萬(wàn)人的標(biāo)注團(tuán)隊(duì),這對(duì)人工智能發(fā)展來(lái)說(shuō)也是一個(gè)巨大的成本。

怎么樣把這個(gè)成本降低下來(lái)?這也是我們每天都在思考的事情。既然有很多東西我們沒(méi)辦法用人去標(biāo)注的話,我們是不是可以換一個(gè)思路,從數(shù)據(jù)、場(chǎng)景里面去尋求本身就蘊(yùn)涵的一些標(biāo)注信息?

這是我們?nèi)ツ甑囊粋€(gè)工作,也是發(fā)表在CVPR上,這里面我們嘗試一種全新的方式去學(xué)習(xí),我們圖片的標(biāo)注成本非常高,每張圖片不僅要標(biāo)注出來(lái),還要把框框出來(lái),以前我們要識(shí)別動(dòng)物,要人工標(biāo)很多動(dòng)物,但是以前我們小時(shí)候?qū)W習(xí)動(dòng)物,不是說(shuō)老師給我一個(gè)圖片,給我一個(gè)有框的東西去學(xué)的,我們是看《動(dòng)物世界》去學(xué)的,這個(gè)方式就促使我們想到一個(gè)方法,我們能不能看《動(dòng)物世界》,把所有的動(dòng)物找到。這里面有一個(gè)天然的聯(lián)系,紀(jì)錄片上有字幕,字幕上有文字,可以把它和視覺(jué)上的場(chǎng)景連接在一起,是不是可以自動(dòng)學(xué)出來(lái),為了這一點(diǎn),我們?cè)O(shè)計(jì)了框架,把它的信息幾何方面的聯(lián)系,以及視覺(jué)跟文本之間的聯(lián)系建立起來(lái),最后我們得到了一個(gè)這樣的結(jié)果。

這是我們?cè)跊](méi)有任何人工干預(yù)的情況下獲得的幾十種動(dòng)物的非常精確的識(shí)別,沒(méi)有任何的標(biāo)注,就是看《動(dòng)物世界》,看《國(guó)家地理》雜志。

除此之外,我們現(xiàn)在做人臉識(shí)別,有大量的人臉數(shù)據(jù)要標(biāo)注,這里面有一些天然的數(shù)據(jù)就是我們的家庭相冊(cè)里面有很多人,這些相冊(cè)雖然沒(méi)有標(biāo)注,但是里面蘊(yùn)涵了很多信息。這是經(jīng)典電影《泰坦尼克》的一個(gè)鏡頭,如果大家只是看人臉很難看出這上面兩個(gè)人是誰(shuí),但是我們往下走可以看到右邊是Rose,但是左邊這個(gè)穿西裝的還是看不清楚是誰(shuí),這時(shí)候如果我們把這個(gè)電影背后的場(chǎng)景識(shí)別出來(lái),你會(huì)發(fā)現(xiàn)Jack和Rose經(jīng)常出現(xiàn)在同一個(gè)場(chǎng)景里,這時(shí)候基于這種社交互動(dòng)的信息,我們可以自動(dòng)判斷這個(gè)穿黑衣服的男生可能是Jack。我們通過(guò)人臉不經(jīng)過(guò)標(biāo)注的情況下,就提供了大量的有意義的數(shù)據(jù)。在這項(xiàng)新工作中,我們還有效地利用了時(shí)間上的關(guān)聯(lián),一個(gè)人從街道這邊走到那邊,人臉的樣子會(huì)發(fā)生很大的變化,我們還是可以判斷是同一個(gè)人。

最后,是關(guān)于質(zhì)量。

我們說(shuō)人工智能,它其實(shí)最終目的是要為我們的生活帶來(lái)便利,提高我們生活的質(zhì)量。但是我們最近幾年人工智能的發(fā)展好像走入了誤區(qū),認(rèn)為人工智能的質(zhì)量跟準(zhǔn)確率是掛鉤的,但其實(shí)我們覺(jué)得人工智能是有多個(gè)方面不同的含義,不僅僅是質(zhì)量,它的質(zhì)量其實(shí)是多個(gè)方面、多個(gè)層次的。

給大家看幾個(gè)例子,這是最近幾年特別火的一個(gè)研究領(lǐng)域,就是給一張照片看圖說(shuō)話,讓計(jì)算機(jī)自動(dòng)生成一個(gè)描述,這是用我們最新的方法得到的結(jié)果,大家可以看一下。

大家可以看到三張不同的圖放出來(lái),我們用最好的這種模型,它會(huì)說(shuō)同一句話,而且這句話在標(biāo)準(zhǔn)的測(cè)試上分?jǐn)?shù)都非常高,是沒(méi)有任何問(wèn)題的,但我們放在一起看的時(shí)候發(fā)現(xiàn)人不是這樣說(shuō)話的,我們描述一張圖片的時(shí)候,即使同一張圖片,不同的人都會(huì)說(shuō)不同的東西。這就是我們?cè)谧非笞R(shí)別的時(shí)候忽略掉的另外的品質(zhì),包括它的自然性和它的特性。

為了解決這個(gè)問(wèn)題,我們?cè)谌ツ炅硗庖粋€(gè)工作上提出了一個(gè)新的方法,它不再把這個(gè)內(nèi)容看成一個(gè)翻譯問(wèn)題,它把它看成一個(gè)從概率分布中采樣的問(wèn)題,它承認(rèn)多樣性,每個(gè)人看到一張圖片會(huì)說(shuō)不同的話,我們希望把這個(gè)采樣過(guò)程學(xué)習(xí)出來(lái)。關(guān)于這個(gè)模型具體的細(xì)節(jié),大家可以看相關(guān)的論文。這里可以看到這個(gè)結(jié)果,同樣的三張圖,我們可以看到它出來(lái)了三句更加生動(dòng)的,能夠很好地描述這個(gè)圖里特征的語(yǔ)句。

最后我們把這個(gè)工作再往前推進(jìn)了一下,我們既然能夠生成一句話,我們也就能生成一段動(dòng)作。這是我們最近做的,我們?cè)谙耄覀兗热荒軌蛏珊苌鷦?dòng)的一句話,我們是不是能生成一個(gè)很生動(dòng)的舞蹈。第一步我們先生成一些簡(jiǎn)單的動(dòng)作,大家在這里看到的所有這些都是計(jì)算機(jī)自己生成出來(lái)的,不是我們寫(xiě)個(gè)程序把它描述出來(lái)的。這個(gè)更精彩一點(diǎn),也是純計(jì)算機(jī)自動(dòng)生成。

對(duì)剛才的分享,我再總結(jié)一下,在過(guò)去幾年,我們看到人工智能也好,深度學(xué)習(xí)也好,有一個(gè)非常突飛猛進(jìn)的發(fā)展,這種發(fā)展是體現(xiàn)在標(biāo)準(zhǔn)數(shù)據(jù)集上準(zhǔn)確率的提升,體現(xiàn)在很多商用場(chǎng)景的落地。但是我們回過(guò)頭來(lái)看這一段發(fā)展的歷程,我們可以看到其實(shí)我們?cè)诔鳪DP、準(zhǔn)確率高歌猛進(jìn)的過(guò)程中,其實(shí)遺忘了很多東西,我們的效率是不是足夠高,我們是不是在透支數(shù)據(jù)標(biāo)注的成本,我們訓(xùn)練出來(lái)的模型是不是真正能夠滿足現(xiàn)實(shí)生活中對(duì)品質(zhì)的要求,從這些角度來(lái)看,我覺(jué)得我們也剛剛在起步。雖然我們實(shí)驗(yàn)室還有世界上其它很多實(shí)驗(yàn)室的探索取得了一些重要的進(jìn)展,但是我們還僅僅是處在一個(gè)起步的階段,在我們的前面還有很長(zhǎng)的路要走,希望跟大家共勉。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:觀點(diǎn) | 商湯科技聯(lián)合創(chuàng)始人林達(dá)華:深度學(xué)習(xí)遭遇瓶頸,未來(lái)之路需要新的思考

文章出處:【微信號(hào):SenseTime2017,微信公眾號(hào):商湯科技SenseTime】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    計(jì)算機(jī)視覺(jué)有哪些優(yōu)缺點(diǎn)

    計(jì)算機(jī)視覺(jué)作為人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠像人類(lèi)一樣理解和解釋圖像和視頻的信息。這一技術(shù)的發(fā)展不僅推動(dòng)了多個(gè)行業(yè)的變革,也帶來(lái)了諸多優(yōu)勢(shì),但同時(shí)也伴隨著一些挑戰(zhàn)和局限
    的頭像 發(fā)表于 08-14 09:49 ?1098次閱讀

    計(jì)算機(jī)視覺(jué)技術(shù)的AI算法模型

    計(jì)算機(jī)視覺(jué)技術(shù)作為人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠像人類(lèi)一樣理解和解釋圖像及視頻的信息。為了實(shí)現(xiàn)這一目標(biāo),計(jì)算機(jī)
    的頭像 發(fā)表于 07-24 12:46 ?1047次閱讀

    機(jī)器視覺(jué)計(jì)算機(jī)視覺(jué)有什么區(qū)別

    。機(jī)器視覺(jué)研究目標(biāo)是讓機(jī)器具有類(lèi)似人類(lèi)的視覺(jué)能力,能夠自動(dòng)、準(zhǔn)確地完成各種視覺(jué)任務(wù)。 計(jì)算機(jī)視覺(jué)
    的頭像 發(fā)表于 07-16 10:23 ?594次閱讀

    計(jì)算機(jī)視覺(jué)的五大技術(shù)

    計(jì)算機(jī)視覺(jué)作為深度學(xué)習(xí)領(lǐng)域最熱門(mén)的研究方向之一,其技術(shù)涵蓋了多個(gè)方面,為人工智能的發(fā)展開(kāi)拓了廣闊的道路。以下是對(duì)計(jì)算機(jī)視覺(jué)五大技術(shù)的詳細(xì)解析
    的頭像 發(fā)表于 07-10 18:26 ?1516次閱讀

    計(jì)算機(jī)視覺(jué)的工作原理和應(yīng)用

    計(jì)算機(jī)視覺(jué)(Computer Vision,簡(jiǎn)稱(chēng)CV)是一門(mén)跨學(xué)科的研究領(lǐng)域,它利用計(jì)算機(jī)和數(shù)學(xué)算法來(lái)模擬人類(lèi)視覺(jué)系統(tǒng)對(duì)圖像和視頻進(jìn)行識(shí)別、
    的頭像 發(fā)表于 07-10 18:24 ?2232次閱讀

    機(jī)器人視覺(jué)計(jì)算機(jī)視覺(jué)的區(qū)別與聯(lián)系

    機(jī)器人視覺(jué)計(jì)算機(jī)視覺(jué)是兩個(gè)密切相關(guān)但又有所區(qū)別的領(lǐng)域。 1. 引言 在當(dāng)今科技迅猛發(fā)展的時(shí)代,機(jī)器人和計(jì)算機(jī)視覺(jué)技術(shù)在各個(gè)領(lǐng)域發(fā)揮著越來(lái)越
    的頭像 發(fā)表于 07-09 09:27 ?723次閱讀

    計(jì)算機(jī)視覺(jué)與人工智能的關(guān)系是什么

    引言 計(jì)算機(jī)視覺(jué)是一門(mén)研究如何使計(jì)算機(jī)能夠理解和解釋視覺(jué)信息的學(xué)科。它涉及到圖像處理、模式識(shí)別、機(jī)器學(xué)習(xí)等多個(gè)領(lǐng)域的知識(shí)。人工智能則是
    的頭像 發(fā)表于 07-09 09:25 ?723次閱讀

    計(jì)算機(jī)視覺(jué)與智能感知是干嘛的

    引言 計(jì)算機(jī)視覺(jué)(Computer Vision)是一門(mén)研究如何使計(jì)算機(jī)能夠理解和解釋視覺(jué)信息的學(xué)科。它涉及到圖像處理、模式識(shí)別、機(jī)器學(xué)習(xí)等
    的頭像 發(fā)表于 07-09 09:23 ?1027次閱讀

    計(jì)算機(jī)視覺(jué)和機(jī)器視覺(jué)區(qū)別在哪

    計(jì)算機(jī)視覺(jué)和機(jī)器視覺(jué)是兩個(gè)密切相關(guān)但又有明顯區(qū)別的領(lǐng)域。 一、定義 計(jì)算機(jī)視覺(jué) 計(jì)算機(jī)
    的頭像 發(fā)表于 07-09 09:22 ?506次閱讀

    計(jì)算機(jī)視覺(jué)和圖像處理的區(qū)別和聯(lián)系

    計(jì)算機(jī)視覺(jué)和圖像處理是兩個(gè)密切相關(guān)但又有明顯區(qū)別的領(lǐng)域。 1. 基本概念 1.1 計(jì)算機(jī)視覺(jué) 計(jì)算機(jī)視覺(jué)
    的頭像 發(fā)表于 07-09 09:16 ?1411次閱讀

    計(jì)算機(jī)視覺(jué)屬于人工智能嗎

    屬于,計(jì)算機(jī)視覺(jué)是人工智能領(lǐng)域的一個(gè)重要分支。 引言 計(jì)算機(jī)視覺(jué)是一門(mén)研究如何使計(jì)算機(jī)具有
    的頭像 發(fā)表于 07-09 09:11 ?1381次閱讀

    深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其中的核心技術(shù)之一,已經(jīng)在計(jì)算機(jī)視覺(jué)領(lǐng)域取得了顯著的成果。計(jì)算機(jī)視覺(jué),作為計(jì)算機(jī)科學(xué)的一個(gè)重要分支,
    的頭像 發(fā)表于 07-01 11:38 ?907次閱讀

    機(jī)器視覺(jué)計(jì)算機(jī)視覺(jué)的區(qū)別

    在人工智能和自動(dòng)化技術(shù)的快速發(fā)展,機(jī)器視覺(jué)(Machine Vision, MV)和計(jì)算機(jī)視覺(jué)(Computer Vision, CV)作為兩個(gè)重要的分支領(lǐng)域,都扮演著至關(guān)重要的角色
    的頭像 發(fā)表于 06-06 17:24 ?1395次閱讀

    計(jì)算機(jī)視覺(jué)的主要研究方向

    計(jì)算機(jī)視覺(jué)(Computer Vision, CV)作為人工智能領(lǐng)域的一個(gè)重要分支,致力于使計(jì)算機(jī)能夠像人眼一樣理解和解釋圖像和視頻的信息。隨著深度學(xué)習(xí)、大數(shù)據(jù)等技術(shù)的快速發(fā)展,
    的頭像 發(fā)表于 06-06 17:17 ?1084次閱讀

    計(jì)算機(jī)視覺(jué)的十大算法

    隨著科技的不斷發(fā)展,計(jì)算機(jī)視覺(jué)領(lǐng)域也取得了長(zhǎng)足的進(jìn)步。本文將介紹計(jì)算機(jī)視覺(jué)領(lǐng)域的十大算法,包括它們的基本原理、應(yīng)用場(chǎng)景和優(yōu)缺點(diǎn)。這些算法在圖像處理、目標(biāo)檢測(cè)、人臉識(shí)別等領(lǐng)域有著廣泛的應(yīng)
    的頭像 發(fā)表于 02-19 13:26 ?1309次閱讀
    <b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>的十大算法
    主站蜘蛛池模板: 久久久无码精品亚洲A片猫咪 | 国产伦精品一区二区三区精品| 桃花在线观看播放| 午夜插插插| 69xx欧美| 饥渴的护士自慰被发现| 嫩草影院永久在线一二三四| 小货SAO边洗澡边CAO你动漫| 99久久免费视频6| 狠狠色色综合网站| 四虎视频最新视频在线观看| 99精品国产AV一区二区麻豆| 国产午夜精品视频在线播放| 在线视频a| 久久国产av偷拍在线| 在线免费中文字幕| 老阿姨儿子一二三区| 97亚洲狠狠色综合久久位| 欧美自拍亚洲综合图区| 俄罗斯15一16处交| 香蕉久久av一区二区三区| 国产午夜三区视频在线| 国产精品第100页| 亚洲不卡视频| 久久久久夜| FREESEXVIDEO 性老少配| 日韩亚洲国产中文字幕欧美| 国产精品爽爽久久久久久蜜桃网站| 久久久久久久久性潮| 这里只有精品在线视频| 欧美 亚洲 有码中文字幕| 潮 喷女王cytherea| 午夜理论电影在线观看亚洲| 国产中文在线观看| 在线亚洲中文字幕36页| 欧美黑人巨大性极品hd欧| 短篇合集纯肉高H深陷骚| 亚洲精品国产在线观看| 免费A级毛片无码鲁大师| 国产二区自拍| 伊人无码高清|