2018 / 1123

participants / team

Topic provider

BIIC Lab,Behavioral Informatics and Interaction Computation Lab,人類行為訊息暨互動計算實驗室,成立於 2014 年,致力於提供一個開放、有趣、並令人興奮的研究環境,進行前瞻技術研究—推進人類行為科學及新興應用領域。本實驗室由李祈均副教授領軍,目前有 26 位碩博士生,含 1 位博士後研究員、13 位博士生,每年研究成果豐碩,並持續進行跨領域的合作與推廣。我們的核心價值為人本運算,Human-centered Computing,以人因 human-factors 為基礎,透過我們的核心技術及不同專業領域的知識,研究人類行為以瞭解人的內在狀態與特性,使專家能夠執行更精準、全面、規模化的決策分析。
BIIC Lab 的基礎及應用研究著重在「人類的行為訊號處理(Behavioral Signal Processing )」,BSP 由 Prof. Shrikanth Narayanan 首創,是個橫跨行為科學與電資工程的研究領域。我們的核心技術包括語音辨識與合成、動作表情行為分析、情感個性互動運算、情緒多媒體生理模型、疾病診斷預測指標及腦造影資料分析。

2020/12/09 【三類等級分類競賽公告】系統成績已公佈,開放上傳報告及下載報告範本!

即日起至 12/15 23:59:59 開放上傳報告喔! 請具得獎資格的隊伍主動上傳: 推甄落榜QQ隊 隨便 EcoMango 乾最後兩天才看到要上傳 Alan_Mise ChenChiAn期中考還沒看peko peko我真爛peko WEICV 今晚我想來點萊豬肉 真D難 Beginner 義想天開 義起守護 imgc0312 Super芒Kuo 雖然有點遲,但我們幫你準備好了範本啦! 如果沒有在期限內上傳,獲獎資格將進行遞補, 若報告有所缺失,須於通知起一周內補件,否則獲獎資格將進行遞補。

2020/07/17 【近期更新資料說明】

針對許多參賽者反應此批資料影像模糊、標註一致性等情形,競賽主辦方 TechManGo 團隊在此說明: 一、本次競賽擬以模仿真實應用場域而設計,考量到芒果處理廠的人力、水果保鮮時間、現地設備等諸多限制,以中低成本之一般消費型相機/攝影機所能蒐集之大量資料庫之前提下,不能確保所有影像品質皆一致。此外,考量利用相機一張一張拍攝獲取資料的方式效率低落,顯然不足以滿足未來自動智慧篩果機器所需,我們部分資料便利用攝影機錄影擷取芒果影像的方式,來模擬真實應用場域情境。藉由拍攝影片,我們預期蒐集的芒果照片將會有部分移動模糊 (Motion blur)、成像雜訊 (Sensor noise)以及光照變化(Luminance variant)等情況。模擬真實應用場域雖使競賽難度提升,但因標註者仍能以人工方式肉眼方式判斷並經兩階段檢驗其標籤正確性,我們期待模型仍有機會達到一定程度的準確率。 二、關於本次資料標註不一致之情形亦是真實應用場域會出現之問題,亦為本次競賽期望參賽者能克服的重點項目之一。除上述資料蒐集環境等因素,大數據,尤其是影像資料庫,經常會受到標記人員評量標準不一的影響,例如 [1] 就指出常見 ILSVRC (ImageNet subset )就存在至少 10 萬筆標註錯誤問題。以競賽本質而言,希望參賽者是能參與大量與真實情境的資料訓練,因此提供所有有能力標記之資料(不一致之部分可視為noisy labeled case)。此一比賽結束後,會針對反饋在資料庫釋出前再進行一次資料清理,也歡迎各位多多向主辦單位反應。 本次較晚提供說明,使參賽者感到困惑,盼望不會造成困擾,也仍期待能夠在排行榜見到各位! [1] Northcutt, Curtis G., Lu Jiang, and Isaac L. Chuang. "Confident learning: Estimating uncertainty in dataset labels." arXiv preprint arXiv:1911.00068 (2019).

2020/07/13 決賽資料之等級的標籤範例已發佈 & 資料更新!

決賽資料之等級的標籤範例(Grade sample)已發佈,欲知詳情請前往我們的FAQ:https://pse.is/U29ED 7/10 公佈的決賽等級資料被捉到有臭蟲,我們已經在下午更新囉! 如果你已經光速下載,記得再下載新資料! 讓我們為標記員和處理資料的同學拍拍手!

2020/06/17 【公告】開放成績挑選,一定要記得喲!

即日起至 6/23 23:59:59 開放挑選成果,可挑選 1~3 筆,系統會以 3 筆中成績最高者作為 private leaderboard 成績。 另外沒有挑選的話就不會登上 private leaderboard,也不會有初賽的最終成績,請大家一定要記得動動手指,到「上傳 > 挑選成果」頁面勾選成績! 快要看到真正排名了,大家快上!

2020/06/12 只有五天!公布初賽測試集,開放下載及上傳答案算分!

即日起至2020/06/16 23:59:59 開放下載測試集 data 及上傳答案算分! 範例 csv 檔檔案格式也已提供,請至「資料」→「資料下載」→下載 test_example.csv 檔案,請大家照著照片名稱順序擺放好預測的答案(等級)! 每日限制上傳次數五次,歡迎大家踴躍上傳喔! 其他問題可見 FAQ: http://user81656.psee.io/SEN68

2020/05/04 【公告】工作坊競賽教學影片上線囉!

工作坊競賽教學影片上線囉! 網址在這邊: https://www.youtube.com/playlist?list=PLJ6QzDAugy1muFIHX17go-OR62avvWr1A 內含相關檔案及ppt,也歡迎加入競賽討論區,可以詢問影片相關問題喔!

Introduction

「愛文芒果等級分類競賽」熱烈報名中!最高獎金 13 萬元!歡迎各科系學生、業界隊伍一起競爭,幫助愛文芒果成為台灣之光!

本競賽透過建立影像辨識演算法模型,對愛文芒果影像進行三種等級分類,既提出本議題的解決方案,也描繪出大眾對愛文芒果產業未來樣貌的想像。

台灣重要出口農產品之一的愛文芒果於近年銷量持續增長,不僅躍升為三大外銷高經濟生鮮果品之一,更將外銷國拓展至日本、中國、美國以及香港等地。雖然,在各國當地政府的政策配合下,台灣芒果較以往提高了知名度並拓展市佔率,卻還是遭遇其他同為芒果出口國(菲律賓、泰國)的削價競爭,因此諸多品種改良、採收後處理技術以及品牌行銷等提昇產品價值的工作,仍待科技輔助來推進。

而其中亟待改善的是採收後處理技術。愛文芒果採收後依品質篩選為 A、B、C 三等級,依序為出口用、內銷用、加工用。然而愛文芒果依靠人工篩選,除了農村人口流失導致人力短缺,篩果流程也因保鮮期壓縮地極短,導致篩果階段約有 10% 的誤差,若以外銷金額估計,每年恐怕損失 1600 萬台幣。

因此,BIIC Lab 與台灣瓦克國際股份有限公司合作,耗時數年收集愛文芒果影像資料,透過本競賽,培養 AI 人才,並建立開放共榮的台灣本地資料庫,希望於愛文芒果產業導入自動化、精準化概念的AI 影像辨識技術,在未來利用資料庫建立一套自動芒果篩果系統,並提升臺灣大眾對農業產業升級的意識,同時拉抬台灣本地愛文芒果的品牌精緻化。

相關問題諮詢,請洽:biiclab@ee.nthu.edu.tw
競賽論壇: AI CUP 2020|愛文芒果影像辨識雙項競賽 討論區


參賽對象

具中華民國學籍學生(研究生亦可)。業界亦可參加,另列入綜合競賽敘獎排名。


競賽獎金

敘獎分為單項競賽獎金及綜合競賽獎金:


單項競賽獎金
三類等級分類辨識競賽
(Grade Competition)
第一名第二名第三名優等佳作(十名)
10 萬元5 萬元3.5 萬元1 萬元十名,各 7.5 仟元
  • 敘獎對象為全學生隊伍,全隊隊員須為報名時具中華民國學籍之學生,敘獎時需檢附相關證明。
  • 兩種競賽前六名獲獎之全學生隊伍經評審委員審定後將獲教育部獎狀乙紙。
  • 各項獎勵名額得視參賽件數及成績酌予調整,參賽作品未達水準(官方公告之baseline)得由決選評審委員決定從缺,或不足額入選。


綜合競賽獎金
三類等級分類辨識競賽
(Grade Competition)
第一名
3 萬元 
五類不良品分類辨識競賽
(Defective Competition)
第一名
3 萬元 
雙項競賽綜合排名 (ORS)
Overall Rating Score
第一名第二名第三名
10 萬元5 萬元3.5 萬元
  • 敘獎對象包含所有參賽之隊伍(業界及全學生隊伍,報名時隊伍中若包含一名以上業界人士,即視為業界隊伍)。
  • ORS=0.4×(WAR in Grade Competition)+0.6×(WAR in Defective Competition)。
  • 本綜合競賽獎金由台灣瓦克國際股份有限公司提供。
  • 兩項競賽名次在前 25% 且超過 Baseline 之隊伍,經評審委員會審定後,將獲頒教育部人工智慧競賽計畫辦公室獎狀。
  • 各項獎勵名額得視參賽件數及成績酌予調整,參賽作品未達水準(官方公告之baseline)得由決選評審委員決定從缺,或不足額入選。
  • 得獎隊伍之競賽報告將列入敘獎,該獎項將各頒發最佳報告獎獎狀乙紙。

Activity time

時間等級分類競賽事件
2020/02/03-05/15開放報名(提供註冊及Sample data)
2020/03/02公布初賽訓練集、建構集資料開放下載
2020/03/09公布建構集Baseline與演算法等 參數
2020/06/12公布初賽測試集,開放下載及上傳答案算分
2020/06/16 23:59:59初賽截止,關閉測試集的資料上傳答案功能
2020/06/24公布初賽成績
2020/07/10公布決賽訓練集、建構集資料開放下載
2020/07/17公布建構集Baseline與演算法等參數
2020/10/30併隊截止
2020/11/10公布決賽測試集,開放下載及上傳答案算分
2020/11/15 23:59:59決賽截止,關閉測試集的資料上傳答案功能
2020/12/02公布決賽成績(系統分數),開始上傳報告
2020/12/15 23:59:59上傳報告截止,開始評估(系統+報告)
2020/12/29公布最終成績(系統+報告)

Evaluation Criteria

評估方式採用 WAR(Weighted Average Recall),其公式如下:

$$ WAR= \sum_{i=1}^I w(i) \ast Recall(i),\ 其中I=3$$

  • $w(i):\mathsf {Weighting\ factor\ of\ each\ class}$
  • $Recall(i):\mathsf {Recall\ of\ each\ class}$

Rules

  1. 參賽對象包括全國各校在學生(含研究生),業界亦可參加。
  2. 參賽隊伍不得註冊多重帳號參加同一項競賽,違者喪失競賽資格;參賽隊伍個別成員自行以個人帳號上傳結果,也視同使用多重帳號參賽。
  3. 組隊截止日內,每人限報名一隊,加入隊伍後便無法換隊,但能繼續添加隊伍人數到上限五人。
  4. 組隊競賽方式:
    • 依競賽組別團體報名,組隊人數以1至5名為限。
    • 每隊須選定一名隊長,本賽事各項權利義務(包含但不限於主辦單位發送之通知及獎金之發放等),均以該名單表為通知及受領對象。
    • 超過人數上限或組隊截止日後將無法再新增人員。
    • 組隊後組隊成員即無法再進行刪減,請謹慎發送、回覆組隊邀請。
  5. 線上評分排名系統每日有上傳次數限制,每個參賽隊伍最多上傳五次。
  6. 影像前處理在 train, development, test 上須為自動化流程,以便主辦單位驗證;此外,影像前處理不得為人工標記,須為自動化流程,例如:可在訓練集上少量標註芒果位置,訓練 object detection model for mango by MaskRCNN or YOLO, 再套用至 development or test data。
  7. 參賽作品所使用之資料、技術與程式碼,均屬參賽隊伍之原創或已取得合法授權,若有任何第三者主張侵害智慧財產權或其他違法情事,均由參賽隊伍自行出面處理;若有侵害他人智慧財產權之情事者,經主辦單位查證屬實,將取消競賽及得獎資格,參賽隊伍應自行負擔相關法律責任。
  8. 主辦方會要求敘獎隊伍提交模型演算法之原始程式碼與最終報告,以驗證結果。
  9. 本競賽教育部獎金與獎狀之敘獎對象為全學生之隊伍,隊伍內成員於報名時需全員符合學生身份才可擁有教育部獎金與獎狀之資格;業界得獎者可獲得計畫辦公室獎狀,獎金則視各舉辦競賽團隊而定。
  10. 得獎者之指導教授/業師僅可領取教育部獎狀,無法領取教育部獎金,且依學生報名時,填寫之指導教授/業師為準。
  11. 參賽成果之智慧財產權歸屬參賽隊伍所有,其著作授權、專利申請、技術移轉及權益分配等相關事宜,應依相關法令辦理。
  12. 得獎隊伍獲得獎金應配合中華民國稅法繳交相關所得稅。
  13. 參賽隊伍如違反本競賽辦法之相關規定,將取消其參賽資格,如已獲獎,則撤銷或得之獎項,並追回獎金及獎狀。
  14. 如有以上未盡事宜,視當時狀況共同商議之。
  15. 凡參加報名者,視為已閱讀並完全同意遵守本活動之一切規定。
  16. 如遇爭議,主辦單位保有活動最終解釋權。