嫒美直播免费版app下载-嫒美直播永久免费版下载-嫒美直播最新下载安装

當前位置:首頁 > 學習方法 > 正文

市面上實驗室考評系統(tǒng)AI賦分準確率有多高?

天智AI評分系統(tǒng)的產(chǎn)品特點有哪些?

天智AI評分系統(tǒng)是自主研發(fā)的中考實驗操作考評系統(tǒng),為滿足中考理化生實驗操作掌握的基本實驗技能及落實國家、省、市相關(guān)中考改革文件精神,推進理化生實驗操作考試考點建設(shè)和考務組織工作。

AI評分系統(tǒng)在促進學生全面發(fā)展,充分發(fā)揮中考實驗操作考試起到積極導向作用,以考促教、以考促學,促進學生的實驗能力和知識能力構(gòu)建,推進各省市中考改革工作高質(zhì)量完成,加快考點建設(shè),完善學校理化生實驗課程設(shè)置,為理化生實驗實操考試做好充分準備。


該AI評分系統(tǒng)產(chǎn)品主要有八大特點:

1.魯棒性:自研STRM方法建模實驗過程和實驗器材的時空多層關(guān)系,能夠適應不同考場環(huán)境和實驗類型,有效識別實驗操作結(jié)果;

2.精準性:自研Multi-Stage行為分析技術(shù),有效解析較小動作特性,提升評分準確率、降低誤評率;

3.智能化:考試實時智能監(jiān)測,當系統(tǒng)監(jiān)測到考試得分點或扣分項時,記錄其得分或扣分情況,并存儲視頻圖片,同事講結(jié)果推送至監(jiān)考老師及管理側(cè);

4.靈活性:端-邊-云靈活部署,兼容性強,網(wǎng)絡(luò)連接可選擇有線、WIFI、5G等通訊方式;

5.易用性:一鍵快速配置,全程無需人為介入,系統(tǒng)后臺智能靜默運行;

6.高效性:快速迭代學習,12小時完成新場景學習,高效輔助評卷,提升5-10倍評卷效率;

7:開放性:標準開放API接口,快速對接各大第三方系統(tǒng);

8.拓展性:支持華為機器視覺產(chǎn)品,包括SDC、IVS等設(shè)備,性能優(yōu)異。

中國人工智能,引發(fā)制造業(yè)變革,AI質(zhì)檢的準確率有多高?

隨著科技的發(fā)展,越來越多的職位被智能機器人所代替,對于這個現(xiàn)象網(wǎng)絡(luò)上有一個笑話叫做當有人對你說逃離大廠的時候,它可能指的不是互聯(lián)網(wǎng)大廠,而是實實在在的工廠。更讓人們覺得好笑的就是,這屆打工人更多的是寧愿送快遞送外賣而不愿進工廠。而這個原因也是很簡單的,就是因為在工廠里做工的環(huán)境是非常壓抑的,工作內(nèi)容單一還乏味,時間長對體力考察的較大。尤其是質(zhì)檢員,質(zhì)檢員一天都要盯著這些屏幕,而且從圖中發(fā)現(xiàn)產(chǎn)品的瑕疵過程還不能超過兩秒,在具體的過程中不僅考驗眼力,而且更多的是專注力,一整天下來,則讓不少質(zhì)檢員們表示身心俱疲。但是就是有這樣一款AI質(zhì)檢員,它是寶德聯(lián)合華為打造的“寶德升騰智造解決方案”,這個方案成功的為AI制造業(yè)帶來了福音。根據(jù)他的副總經(jīng)理的介紹,我們可以知道在這個工作中,首先就是AI的質(zhì)檢率其實高達99%,在這么高的質(zhì)檢率的情況下,一旦出現(xiàn)了什么問題,很快就能夠被發(fā)現(xiàn),從而節(jié)省了工人組裝前后,目測質(zhì)檢的時間和精力,進一步節(jié)省了人工成本。而第2個就是他的整個過程是可以追溯的,每一個工位都有照片,在結(jié)束后也能夠后期管理。



這個系統(tǒng)最讓人佩服的地方就在于它從上線以來從未出現(xiàn)識別不準確的情況,而且準確率高達了99%,識別速度快明顯實現(xiàn)了提質(zhì)增效。產(chǎn)品自身還有著操作簡單,模型離線,部署容易,迭代快速等等諸多的優(yōu)勢。而這個方案的推出也大大的降低了生產(chǎn)成本和人工成本,將制造業(yè)往智能化方向貼近,所以AI質(zhì)檢準確率能夠高達99%。

AI打假技術(shù),1秒內(nèi)識別20個假大牌,AI打假技術(shù)的準確率高嗎?

近日,有一個新型的打假技術(shù)得到了眾多專業(yè)人士的認可,甚至315協(xié)會也利用這個利器來進行打假,這個技術(shù)就是AI打假技術(shù)。根據(jù)媒體報道,AI打假技術(shù)在短短的一秒之內(nèi)就識別出來了二十多個假的名牌,這個速度堪稱恐怖。這個打假技術(shù)的專業(yè)能力是任何一名熟練的鑒定師都不可以相媲美的。AI打假技術(shù)的成功應用向人們證實了AI技,認為術(shù)不僅僅只能用于識別人臉,它還有著更加廣闊的應用場景。雖然AI打假技術(shù)超強的打假識別能力得到了人們的認可,但是還是有一部分人發(fā)出了質(zhì)疑AI打假技術(shù)是騙人的,只是一味的追求快。那么,市場上的AI打假技術(shù)的準確率到底如何呢?

那么AI打假技術(shù)到底是如何應用的呢?實際上AI打假技術(shù)也是應用了大數(shù)據(jù)進行搜集和對比,最終通過一系列的計算來得出的結(jié)論。隨著科技的發(fā)展,芯片的運行速度和計算能力越來越快,讓AI識別能力和時間大大的縮短。通過對AI打假技術(shù)進行實驗,結(jié)果顯示AI打假技術(shù)不僅用時短、效率高而且準確率也能夠得到保證,堪稱一大神器。隨著小程序的不斷研發(fā),AI打假技術(shù)也會逐漸的走向每一個人,最終形成人人都是打假者。

現(xiàn)在隨著我們國家經(jīng)濟的發(fā)展,奢侈品的銷量也是水漲船高,連年增長。在奢侈品銷量瘋狂上漲的背后,假冒偽劣的產(chǎn)品也大量的流入了市場。而且由于奢侈品自身的特殊性質(zhì),他的真?zhèn)蔚蔫b定也一直不能很好的解決,最終形成了奢侈品市場的難點和痛點,而隨著AI打假技術(shù)的廣泛應用,將會有力的改變這個局面,整治奢侈品行業(yè)的亂象。

AI打假技術(shù)作為一款打假神器,它的準確率必然是很高的,這是得到了市場的認可,請大家放心使用。

AI技術(shù)1秒識別20個假大牌,它的準確率有多高呢?

AI技術(shù)1秒識別20個假大牌,它的準確率高達95%,在這套軟件里面,包含了137億張造假圖片,可以識別商標偽造,圖像模糊等造假手法。AI技術(shù)識別假品牌還可以24小時不間斷運行,隨時隨地進行更新假貨信息,疑似造假的商品鏈接就會被直接封殺,而且準確率高達95%,用來保護商家的知識產(chǎn)權(quán)和商標權(quán)。同時這一款軟件是免費給全球服務的,里面的奢侈品商標也會免費提供給需要這些數(shù)據(jù)的商家和科研隊,其目的是打造更加安全的數(shù)據(jù)庫,提升AI技術(shù)的安全性。這款AI技術(shù)還同時提供了線上咨詢和線上追蹤的服務,有專門的打假特戰(zhàn)隊幫助公安機關(guān)破案。而且還配備了線下小二,協(xié)助公安機關(guān)線下調(diào)查,爭取將假貨全部打擊。

一、這款AI技術(shù)軟件包括了137億張造假圖片,可以識別迷糊圖片和虛假商標等造假手法,準確率高達95%

這款AI技術(shù)軟件,在打擊造假奢侈品時,使用了高達137億張圖片,從中甄選出假貨圖片,就可以識別造假商品了。而且就算是模糊的圖片和利用高科技偽造商標,也同樣可以識別清楚是否為虛假商品。還可以在線更新假貨圖片,使人們更加準確的判斷是否為假貨。

二、這款AI技術(shù)只需要運行起來,就可以在線24小時不間斷識別假貨,只要發(fā)現(xiàn)有可疑鏈接,直接進行封殺

這款AI智能技術(shù),是24小時查詢假貨的,根本不需要人們手工操作,為很多商家提供了方便。而且當這款軟件運行的時候,如果發(fā)現(xiàn)造假的商品,就會在上架的那一刻進行封殺,不會出現(xiàn)在人們的眼前,真可謂是方便又準確。

隨著AI技術(shù)的提升,你知道還有哪些領(lǐng)域使用AI技術(shù)嗎?

AI也有偏見,我們該如何信任它們?

1970年,愛德華·肖特利夫(Edward H. Shortliffe)在斯坦福大學的實驗室里開始著手編寫一個Lisp程序。這個名為MYCIN的系統(tǒng)通過一系列的是非問題幫助醫(yī)生判斷病人是否患有遺傳性血液疾病,并根據(jù)病人體重建議抗生素用量。作為歷史上最早的專家系統(tǒng)之一,MYCIN的正確率僅為65%,相較血液科醫(yī)師80%的正確率相去甚遠,而且由于程序過于龐大,最終也沒有投入使用。

2019年,150名受試者來到UCLA的VCLA中心,觀看Baxter機器人打開附有安全鎖的藥瓶。隨后,Baxter向其中一些受試者解釋了自己是如何打開藥瓶的,剩下的人沒有得到任何解釋。最后,實驗者向所有人提問:你在多大程度上相信這個機器人會開藥瓶?

在過去的半個世紀里,機器的計算與儲存能力突飛猛進,我們可以輕松地在計算機上運行像MYCIN一樣相對簡單的系統(tǒng),甚至可以訓練深度神經(jīng)網(wǎng)絡(luò)、支持向量機(Support Vector Machine)等更加復雜的模型達到接近專業(yè)醫(yī)生的診斷水平,或是讓機器人完成相對復雜的精細動作。

但是,AI系統(tǒng)的性能提升也帶來了新的問題:如果這些系統(tǒng)進入我們的生活,你會信任它們作出的決定嗎?

為何要解釋AI?

AI如日中天,我們?yōu)槭裁匆O聛硭伎荚趺唇忉屗?/p>

2016年5月,ProPublica發(fā)布了一篇名為《機器偏見》的調(diào)查報告,聚焦一個名為COMPAS的AI系統(tǒng)。COMPAS被廣泛應用于美國司法量刑。它基于已有的犯罪記錄,嘗試預測被告被再次逮捕的概率,得出一個1到10分之間的分數(shù)——分數(shù)越高,它建議的量刑越重,以期更有效地懲治潛在的再犯。

ProPublica分析了18000多人的COMPAS分數(shù)和犯罪記錄,發(fā)現(xiàn)黑人與白人的分數(shù)分布明顯不同——在犯罪歷史、再逮捕記錄、年齡、性別都相同的條件下,黑人被告得到更高COMPAS分數(shù)的概率高于白人被告45%。另外,有48%在兩年內(nèi)被再次逮捕的白人被告的COMPAS分數(shù)被低估,幾乎是黑人被告的兩倍。因為數(shù)據(jù)來自具有結(jié)構(gòu)性不公的環(huán)境(既有司法系統(tǒng)傾向于區(qū)別對待不同人種),COMPAS的(草率)決定也受此影響。然而,由于COMPAS是一個黑箱系統(tǒng),法官只能看到分數(shù),對內(nèi)部的決策機制一無所知,導致他們無法有效評估系統(tǒng)的建議。另一篇調(diào)查報告更是指出,COMPAS的準確率相當于幾乎沒有刑事司法專業(yè)知識的人。

無獨有偶,2015年,有用戶發(fā)現(xiàn)谷歌的圖像識別系統(tǒng)將自己的黑人朋友標記為“大猩猩”,在推特上引起軒然大波。直到2018年,谷歌仍然沒有完全修復這一漏洞,只是將靈長類的標簽從系統(tǒng)中移除,并稱“圖像識別技術(shù)還不成熟”。同樣是2015年,紐約西奈山醫(yī)院用70萬病人的數(shù)據(jù)訓練了一個名為“深度病人”的深度神經(jīng)網(wǎng)絡(luò),用以輔助醫(yī)療診斷?!吧疃炔∪恕睂穹至寻Y的預測出乎意料地準確,但沒有醫(yī)生知道為什么,自然也無法應用于自己的臨床診斷;當它被用于分析醫(yī)院以外的X光片時,系統(tǒng)正確率莫名出現(xiàn)了大幅下降。

“數(shù)據(jù)不會說謊?!钡@絕不意味著我們不需要仔細審視它們,或是給予基于數(shù)據(jù)之上的AI系統(tǒng)無條件的信任。肖特利夫的MYCIN系統(tǒng)本質(zhì)上是一個決策樹,屬于“透明”的模型——我們可以畫出從數(shù)據(jù)輸入開始完整的決策過程,從而評估MYCIN的決定。深度神經(jīng)網(wǎng)絡(luò)的性能遠遠優(yōu)于決策樹,但它是一個“黑箱”——我們幾乎不可能確切地知道它在算什么。性能與可解釋性似乎此消彼長。

對一位只追求正確率和性能的算法工程師來說,黑箱AI未必不受待見:一個能夠準確預測95%的事件的黑箱系統(tǒng),肯定比另一個正確率只有65%、更透明的系統(tǒng)好??墒?,當工程師需要調(diào)整系統(tǒng)內(nèi)部“零件”的時候(比如修復谷歌圖像識別系統(tǒng)),黑箱會讓這項任務無比艱難:到底是哪一步出錯了?是用于訓練的數(shù)據(jù)有問題,還是模型本身的性能不足,或是損失函數(shù)(loss function)有待改進?置身黑箱之外的工程師很難一針見血地指出病灶。

我們中的大多數(shù)人也許極少有機會成為工程師、法官、醫(yī)生,但這不妨礙黑箱AI對我們的生活造成影響。與我們的一廂情愿相反,不夠透明的AI系統(tǒng)非但沒有比人類更客觀、公正、精確,反而加深了既存的偏見和不公正,對數(shù)字民主和基本人權(quán)構(gòu)成威脅,而對這些系統(tǒng)的控制、介入和審計也更為困難。當我們無法解讀AI作出的決策,對它未來的預期不過是紙上談兵,信任也無從談起。

可解釋AI(Explainable AI,即XAI)想要解決的正是這類問題。XAI認為,通過解釋AI系統(tǒng)的決策過程,人類能夠更好地理解它的機制、優(yōu)缺點、潛在影響等特性,從而更有效地預測系統(tǒng)的行為,達到逐步建立信任關(guān)系的效果。如果AI革命不可避免,至少一個可被解釋的系統(tǒng)能夠更好地融入嶄新的算法社會契約——例如伊亞德·拉萬(Iyad Rahwan)提出的社會回環(huán)(Society-in-the-loop)——與人類共生存,而不必成為敵對的關(guān)系。

我需要一個解釋

可解釋AI終究是為人服務的(好比高階編程語言是為了人類設(shè)計的,否則機器之間的“交流”大可以用機器編碼之類人類無法輕易讀寫的“語言”)。所以“解釋性”也是相對人而言的。關(guān)于黑箱AI系統(tǒng),什么樣的解釋才是好的解釋?心理學家和哲學家早就開始分頭研究,但各執(zhí)一詞。

解釋常常需要闡述特定的因果關(guān)系或因果模式,例如“我不吃杏仁,因為我對堅果過敏”。這樣的解釋非常貼切(沒有轉(zhuǎn)移話題),直接明了(不存在循環(huán)論證),邏輯嚴密。有的現(xiàn)象卻很難用通俗的因果關(guān)系解釋——請試著回答,“我擲了一次骰子,為什么朝上的一面是3?”當然,你可以引用物理法則來解釋擲骰子的具體過程,但我可能一頭霧水。為了避免這樣的尷尬,你也許會提及相關(guān)的(非因果的)概念,比如“隨機性”,或是用類比等手法讓你的解釋更容易被聽眾接受(比如上一段的第一句話)。一般而言,因果關(guān)系在解釋中占據(jù)不可動搖的地位,但不是唯一的手段。

既然解釋本身可以有各種形式,為了篩選出最好的可解釋AI,我們?yōu)槭裁床恢苯訂枺耗憷斫膺@個系統(tǒng)在做什么嗎?相關(guān)的心理學研究也的確使用了類似的方法來推斷人們是否能夠通過描述性解釋理解某一概念。它們發(fā)現(xiàn),客觀上,當受試者對某一概念有更好的理解時,他們能通過主觀的直覺感覺到自己的認知進步,好比“茅塞頓開”。

然而,耶魯大學的列昂尼德·羅森布里特(Leonid Rozenblit)和弗蘭克·凱爾(Frank Keil)提出的“解釋深度的錯覺”(Illusion of Explanatory Depth)仿佛當頭一棒。羅森布里特和凱爾讓受試者首先評價自己對某一工具(比如拉鏈)的理解,然后詳細地解釋這個工具的工作機制,并再次評價自己的對它的理解。他們發(fā)現(xiàn),相比一開始,試圖解釋后的受試者對自己理解的評價明顯下滑,仿佛突然意識到自己其實一知半解。這就是“解釋深度的錯覺”。這種錯覺影響著所有人(包括小孩子),并且只作用于解釋性的知識。完全相反的情況也不少見:人們會自稱不理解一個動力系統(tǒng),卻能熟練地使用它。

另一方面,規(guī)范(normative)解釋在哲學(尤其是科學哲學)中發(fā)揚光大。規(guī)范解釋有意忽略個人因素,比如認知能力,而是關(guān)注“應有”的理解。因此,規(guī)范理解可以被視為一種基準,用來分析哪些信息應當被包含在解釋里,以及受眾會有何種程度的理解。更進一步地說,好的(規(guī)范)解釋應當從理解的目的出發(fā),基于受眾與黑箱AI的關(guān)系給出不同的解釋。顯然,修補系統(tǒng)漏洞的工程師和審核系統(tǒng)公正性的法官所需的理解是不同的。我們可以合理假設(shè)前者具有足夠的技術(shù)知識背景,也許將計算模型可視化就提供了足夠好的解釋。后者需要的是更抽象的文字解釋,比如“其他條件不變,COMPAS系統(tǒng)預測黑人被告和白人被告被再次逮捕的概率不同?!眱煞N都是好的(規(guī)范)解釋,一旦互換卻可能成為各自的雞肋。

規(guī)范解釋看似更加直截了當,但在實際應用中還沒有確切實現(xiàn)或評估的共識。描述性解釋似乎也不甚完美。時至今日,我們?nèi)晕凑厦枋鲂越忉尯鸵?guī)范解釋,關(guān)于解釋的研究和可解釋AI還在齊頭并進。

有了可解釋的AI就萬事大吉嗎?

2017年開始,美國國防高級研究計劃署(DARPA)投資了一系列XAI的項目,包括UCLA的VCLA中心的研究項目。2018年,ACM主辦了第一屆FAT*會議,關(guān)注AI系統(tǒng)的公正性、問責制和透明度。同年,AAAI與ACM共同舉辦第一屆AIES(人工智能、倫理與社會)會議。谷歌、微軟等科技公司也陸續(xù)參與XAI的研發(fā)。各界對于XAI的關(guān)注促成了許多“拆穿”黑箱AI的嘗試,從DeepMind提出的機器心智理論(Machine Theory of Mind),到將黑箱神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)化為“透明”的布爾電路(Boolean circuit),再到LIME(Local Interpretable Model-Agnostic Explanation)等通過近似黑箱模型提取重要特征的方法。雖然XAI目前解釋的對象主要是工程師等研發(fā)人員,但是在未來,我們將會看到更多面向大眾的XAI,比如向你解釋如何開藥瓶的Baxter。

XAI并不是終點;它最多算一個起點,而我們還有許多亟待解決的問題。首先,對黑箱AI的解釋可以被悄無聲息地篡改,可以完全牛頭不對馬嘴,而且很難察覺。哈佛大學的?,斮e度·拉卡拉朱(Himabindu Lakkaraju)和她的學生們發(fā)現(xiàn),只需在模型上動一些簡單的手腳,就能讓它濫用COMPAS數(shù)據(jù)集里的種族信息決定量刑,但一旦LIME來“視察”,它立刻擺出無辜的嘴臉,完全不露餡。這就意味著,即使有XAI為工具,我們對AI的信任也不應當盲目地依賴系統(tǒng)的可靠性和(表面上)信息的透明性,理智與批判性思考將格外重要。

其次,針對AI的條例的制定相對滯后于研發(fā)和應用。XAI的出現(xiàn)將會讓這個問題更加復雜——由于黑箱AI難以捉摸,且只有少數(shù)人具備解讀/修改的能力,研發(fā)機構(gòu)不必過分擔心自己的科研成果泄漏(除非算法模型被一鍋端)。如果面向用戶和公眾的解釋成為需求、甚至必須,既有的AI系統(tǒng)——無論透明與否——都有可能面臨一系列的風險,包括知識產(chǎn)權(quán)(利用反向工程重建系統(tǒng))和系統(tǒng)安全(惡意的對抗攻擊)。信任與保密兩者的張力之下,XAI應當提供的解釋的具體內(nèi)容尚無定論。

再者,偏見和不公不會因為解釋本身而消失;恰恰相反,解釋會暴露更多一直以來潛行在我們周圍的倫理問題。ProPublica對COMPAS的調(diào)查使人不禁發(fā)出疑問:系統(tǒng)性的種族偏見究竟在何種程度上滲透了美國過去十年間的量刑?隨著XAI的進步,一個個黑箱AI的廬山真面目逐漸顯露在我們眼前,不難想象其中有像COMPAS一樣的“幫兇”。我們能否通過公開討論解決結(jié)構(gòu)性問題、完善問責制,這將是對AI和人類社會共同的挑戰(zhàn)。

展開全文閱讀