1. 程式人生 > >使用背景優先順序的測地顯著性檢測(Geodesic Saliency Using Background Priors)

使用背景優先順序的測地顯著性檢測(Geodesic Saliency Using Background Priors)

使用背景優先順序的測地顯著性檢測

Yichen Wei, Fang Wen, Wangjiang Zhu, and Jian Sun

【摘要】 通用物件級突出檢測對於許多視覺任務很重要。以前的方法大多建立在之前,“物件和背景之間的外觀對比度很高”。雖然已經開發了各種計算模型,但問題仍然是挑戰性的,並且可以觀察到先前方法之間的巨大的行為差異。這表明,使用此前的問題可能仍然是高度不利的。

在這項工作中,我們從不同的角度解決問題:我們更多地關注背景而不是物件。我們利用關於自然影象背景的兩個共同先驗,即邊界和連線先驗,為問題提供更多的線索。因此,我們提出了一種稱為測地學顯著性的新穎的顯著性度量。它是直觀的,易於解釋和允許快速實施。此外,它是以前的方法的補充,因為它從背景優先事項中獲益匪淺,而以前的方法並沒有受益。

兩個資料庫的評估驗證了測地線顯著性在精度和速度(每張影象為2毫秒)的情況下,大幅度地獲得了優異的效果,並且優於先前的方法。這表明適當的先前開發有助於不正確的突出檢測問題。

1 介紹

人類視覺系統可以快速準確地識別其視野中的重要區域。 了在計算機視覺中實現這樣的能力,多年來一直在自下而上的視覺顯著性分析方面進行了廣泛的研究工作。這個領域的早期作品[1,2]主要基於生物學啟發模型(人類看起來),並對人眼固定資料進行評估[3,4]。許多後續工作正沿著這個方向發展[5-7]。

近年來,人們對物體水平顯著性檢測的興趣越來越大,對人體標籤物體進行了評估。這種新趨勢是由於基於突出物體的視覺應用的日益普及,如物體感知影象重定向

[14,15],瀏覽影象裁剪[16],影象編輯物件分割[17]和識別[18]。還表明,低階顯著性線索有助於找到通用物件,不論其類別如何[19,20]。在這項工作中,我們專注於自然影象中的物件級顯著性檢測問題。


1 以前的代表性對比先驗基礎方法的顯著圖,在物件和背景上日益複雜的三個示例影象上。(a)輸入影象。(b)地面真相顯著物件面具。(c) - (f)一種區域性方法[1]和三種全域性方法[9,11,12]的結果。

1.1 前期工作對比

由於缺乏高水平的知識,所有自下而上的顯著性方法都依賴於物件和背景屬性的假設或先驗1。可以說,最根本的假設是“物體與背景之間的外觀對比很高”。該假設指出,顯著影象畫素/貼片在特定上下文中呈現高對比度。 它是直觀的,用於所有顯著方法,明確或隱含。 在本文中,我們稱之為對比之前的簡潔。

根據計算對比度的上下文的程度,先前的方法可以被分類為區域性方法[1,6,8,7,10]或全域性方法[21,9,22,11,12]。區域性方法計算畫素/補片的區域性鄰域中的各種對比度測量,如邊緣對比度[8],中心環繞辨別力[7],中心 - 環繞差分[1,8],曲率[10]和 自我資訊[6]。

全域性方法使用整個影象來計算各個畫素/補丁的顯著性。 一些方法假設全域性較不頻繁的特徵更為顯著,並且在頻譜域中使用頻率分析[21,9]。其他方法將每個畫素/補丁與影象中的所有其他畫素進行比較,並將平均外觀不相似性用作顯著性度量[22,11,12]並且平均通常由畫素/斑塊之間的空間距離加權,以考慮到突出畫素/斑塊通常被分組在一起以形成突出物體的事實。

對比先前的方法已經在自己的方面取得了成功,但仍然有一定的侷限性。通常,突出物體的邊界可以很好地發現,但物體內部被衰減。在所有區域性方法和一些全域性方法中觀察到“物件衰減”問題。 在全球方法中得到緩解[11,12],但這些方法仍然難以統一地突出整個物件。

實質上,一般物體和背景上的顯著物體檢測問題是高度不利的。在社群中仍然缺乏一個共同的定義,即“什麼顯著”並且僅僅使用對比度就不可能成功。雖然以前的做法主要是基於他們對“如何實施對比之前”的理解,但是可以觀察到以前的方法之間的巨大的行為差異,並且這種差異有時難以理解。

該問題在圖1中舉例說明,其顯示了以前的代表性方法,一種區域性方法[1]和三種全域性方法[9,11,12]的結果。這三個例子在物件和背景中呈現出越來越多的複雜性:一個簡單背景中的一個簡單的物件; 在更復雜的背景下的更復雜的物件; 在複雜且有低對比度背景中的兩個顯著區域。觀察到,不同方法的結果彼此差異很大,即使對於第一個非常簡單的例子,對於大多數人來說,這一點也不是模糊的。這種現象在許多影象中被重複地觀察到,簡單或複雜。 這鞏固了我們的信念,即單獨使用對比,不足以解決問題,應該利用更多的線索。

1.2 我們方法中的背景先驗

我們從不同的方向解決這個問題。除了提出“顯著性區域看起來應該是什麼樣的”外,我們還提出了相反的問題“背景應該是什麼樣的”。 直觀地,回答這個問題將有助於去除背景雜交,從而導致更好的前景檢測。我們以圖1中的第一個影象為例。整個背景是一個大而順利連線的地區,不應該以任何方式被視為前景,也就是說,其顯著性應該始終為零。

我們建議在自然影象中使用兩個有關共同背景的先驗,即邊界和連線先驗。它們在以前的方法中沒有被充分利用,有助於解決以前難以解決的問題。

第一個來自攝影作品的基本規則,也就是說,絕大多數攝影師不會沿檢視畫出突出的物體。換句話說,影象邊界大多是背景。我們以前稱之為邊界。它比以前使用的中心[8,3]更為普遍,即“影象中心更重要”,因為突出的物體可以放在中心(專業攝影中的三分之一規則),但是它們很少觸及影象邊界。此前在與互動式影象分割中使用的邊界框之前共享類似的精神[17,23],其中要求使用者提供包圍感興趣物件的邊界框。如先前在4.1節中討論的那樣,這個先驗在幾個突出物件資料庫中得到驗證。第二個是從現實世界背景的影象特徵出發,即背景區域通常是大而均勻的。換句話說,背景中的大多數影象補丁可以很容易地彼此連線。我們稱之為連線。請注意,連線是分段方式的。例如,天空和草地自己是同質的,但它們之間的補丁不能輕易連線。

背景外觀同質性也應該以人類的觀念來解釋。例如,草地上的斑塊看起來與人類相似,儘管它們的畫素強度可能會有很大的不同。這個先驗不同於先前在物體分割中使用的連線[24,25],其被假定為物件的空間連續性而不是背景。有時,這種以前的事實也得到背景區域通常在攝影過程中失焦,因此比感興趣的物件更加模糊和平滑的事實。

2 測地顯著性

基於對比度和兩個背景先驗,我們進一步觀察到,大多數背景區域可以容易地連線到影象邊界,而對於物件區域來說更難。這表明我們可以將影象補丁的顯著性定義為其影象邊界的最短路徑的長度。然而,這假設所有的邊界補丁是背景的,這是不夠逼真的,因為突出物件可以在邊界上被部分裁剪。這可以通過新增連線到影象圖中的所有邊界補丁的虛擬背景節點並計算邊界補丁的顯著性來糾正,如第2.1節所述。 以這種方式,我們提出了一種新的直觀的測地線顯著性度量,即影象補丁的顯著性是其到虛擬背景節點的最短路徑的長度。

2顯示了影象補丁和測地線上的幾條最短路徑顯著結果。 這些結果比圖1更可信。

大地測量顯著性有幾個優點。 首先,它是直觀和容易解釋。 同時有效地利用了三個先驗。 以前的“物件衰減”問題得到顯著緩解,因為均勻物體區域內的所有補片通常具有與影象邊界類似的最短路徑,因此具有相似的顯著性。 因此,它比以前的方法獲得了更好的結果。

其次,它主要受益於背景先驗,並且適度地使用對比度。 因此,它是以更復雜的方式利用對比度的方法的補充[22,11,12]。 大地測量顯著性與這些方法的組合通常可以改善兩者。

最後,它很容易實現,快速,適合後續應用。對於精度/速度折衷的不同實際需要,我們提出了測地線顯著性演算法的兩種變體。對於需要高速的應用程式,例如互動式影象重定位[14],用於批量影象瀏覽的影象縮圖生成/裁剪[16]以及基於邊框的物件提取[26,19]我們建議使用影象網格上的矩形斑塊和近似最短路徑演算法計算測地線顯著性[27]。 我們稱之為GSGrid演算法。對於中等大小(400×400)的影象,它執行大約2毫秒。對於需要高精度的應用,如物體分割[17,18],我們建議使用超畫素[28]作為影象補丁和精確的最短路徑演算法。 我們稱之為GS Superpixel演算法。 它比較慢(幾秒鐘),但比GS網格更準確。


圖2 (更好地檢視顏色)大地測量顯著性的圖示(使用常規補丁)。

頂部:圖1中的三個示例影象和幾個前景(綠色)和背景(品紅色)影象斑塊的最短路徑。

底部:測地線顯著性結果。

在第4節中,對[8,9]中廣泛使用的突出物件資料庫的廣泛評估以及[29,30]中最近更具挑戰性的資料庫表明,測地線顯著性大大優於先前的方法,並且可以通過結合以前的方法進一步改進。 此外,GS網格演算法比所有其他方法快得多,適合實時應用。

2.1 演算法

對於影象,我們構建一個無向加權圖G={V,E},頂點就是影象補丁{Pi}加虛擬背景節點B,V = {Pi}∪{B},有兩種型別的邊:內部邊連線所有相鄰的補丁,邊界邊將影象邊界補丁連線到背景節點,E = {(Pi,Pj)| Pi鄰近Pj}∪{(Pi,B)| Pi在影象邊界上}。補丁P的測地學顯著性是沿著圖G上從P到背景節點B的最短路徑的累加邊緣權重,


3 內部邊緣重量削減減輕了小重量積累問題。

(a)輸入影象。 b)無重量限幅的測地線顯著性(使用超畫素)。 (C)測深顯著(使用超畫素)與重量削減。

我們首先描述如何計算邊緣權重,然後介紹兩個變體測地線顯著演算法:GS網格速度更快,GS超畫素更多準確。

內邊界權重是相鄰貼片之間的外觀距離。這個距離測量應該與人類對兩個斑塊相似度相似的看法是一致的。這個問題本身並不容易。對於均勻紋理的背景,如道路或草地,而補丁看起來幾乎相同,簡單的外觀距離,如顏色直方圖的距離通常很小但非零值。這導致小重量積累問題,即許多小的重量邊緣可以沿著長的路徑累積,並在背景的中心形成不期望的高顯著值。參見圖3(b)。

我們採用簡單有效的重量削減方法來解決這個問題,而不是探索複雜的功能和複雜的補丁外觀距離度量。補丁外觀距離簡單地取為兩個斑塊的平均顏色(LAB顏色空間)之間的差異(歸一化為[0,1])。 對於每個補丁,我們選擇其與所有鄰居的最小外觀距離,然後我們選擇“無意義”距離閾值作為與所有補丁的所有這樣最小距離的平均值。如果任何距離小於該閾值,則被認為是不顯著的且被限制為0。這種內部邊緣權重的計算是非常有效的,其有效性如圖3所示。

邊界邊的權重描述邊界不定不是背景的可能性。當邊界先驗嚴格有效時,所有邊界補丁都是背景,這樣的權重應該是0,但是這太過於理想化了,並不健壯。 即使只是輕微觸控影象邊界,整個物件也可能被遺漏,因為物件上的所有補丁都可以輕鬆連線到影象邊界上的物件補丁。 參見圖4(b)。

我們觀察到,當突出物體被影象邊界 部分裁剪時,物體上的邊界斑塊比背景中的邊界斑塊更顯著。 因此,邊界邊的權重計算被視為一維顯著性檢測問題:僅給出邊界補丁,計算每個邊界補丁Pi的顯著性作為邊界邊(Pi,B)的權重。 這個步驟使得邊界先驗和測地線顯著性更強壯,如圖4(c)(d)所示。


圖4  邊界邊緣權重計算使邊界先驗和測地線顯著性更強。

(a)輸入影象。(b)邊界權重為0的大地測量顯著性。(c)使用[11]中顯著性演算法的一維版本計算的邊界邊權重。(d)使用(c)中邊界權重的大地測量顯著性。

原則上,可以將任何可以減少為一維版本的影象顯著方法用於此問題。我們使用[11]中的演算法,因為它也基於影象補丁,並使其僅使用邊界補丁是直接的。對於這種方法的補丁外觀距離,我們也使用平均顏色距離。

GS Grid演算法在常規影象網格上使用10×10畫素的矩形影象補丁。 使用高效的測地距離變換計算所有補丁的最短路徑[27]。 雖然這個解決方案只是近似的,但它非常接近於影象網格上簡單圖形的確切解決方案。 由於其圖形節點數量和順序儲存器訪問(因此快取友好)的線性複雜度,它非常快,也用於互動式影象分割[31,32]。 總體來說,GS Grid演算法在400*400的影象中執行2 ms,併產生不錯的結果。

GS超畫素演算法使用不規則的超畫素作為影象補丁。它更準確,因為超畫素與物件和背景區域邊界比GS網格中的常規補丁更好地對齊,並且補丁外觀距離計算更準確。 我們使用[28]中的超畫素分割演算法來產生大約10×10畫素的超畫素。影象通常需要幾秒鐘。 請注意,我們的方法對超畫素演算法非常不敏感,因此可以使用更快的方法。

所有影象補丁的最短路徑由Dijkstra演算法計算,以獲得更好的精度。 儘管超級線性複雜性,但是超畫素的數量通常很小(約為1500),這個步驟不超過幾毫秒。

3 顯著物體資料庫

MSRA資料庫[8]目前是最大的突出物件資料庫,並提供物件邊界框。 [9]中的資料庫是[8]的1 000個影象子集,並提供人類標記的物件分割掩碼。 在這兩個資料庫上評估了很多最近的物件顯著性檢測方法[8-13,16]。

然而,這些資料庫有幾個限制。 所有影象只包含一個顯著物件。 大多數物體都很大,靠近影象中心。大多數背景都是乾淨的,與物件呈現強烈的對比。圖8中顯示了一些示例影象。

最近引入了一個更具挑戰性的突出物件資料庫[30]。它是基於眾所周知的300張影象伯克利分割資料集[29]。這些影象通常包含影象中不同大小和位置的多個前景物件。物體和背景的外觀也更加複雜。有關幾個示例影象,請參見圖10。 在[30]的工作中,要求七個主題標註前景顯著物件掩碼,每個物件可以在一個影象中標記多個物件。 對於每個物件的每個物件掩碼,一致性得分是根據其他六名受試者的標籤計算的。然而,[30]不提供單一的前景顯著物件掩模作為基本真相。

對於我們的評估,我們通過刪除其一致性分數小於閾值的所有標記物件並組合剩餘的物件的掩碼,在每個影象中獲得前景蒙版。

這是合理的,因為小的一致性分數意味著七個主題的意見之間存在分歧,標記的物件可能不太顯著。我們嘗試了從0.7到1的不同閾值(1是最大一致性,意味著所有物件標記與物件完全相同的掩碼)。 我們發現,對於大多數影象,使用者標籤是非常一致的,因此前景掩碼對此閾值不敏感。最後,我們將閾值設定為0.7,儘量保留儘可能多的突出物件。 對於幾個示例前景蒙版,參見圖10。

4 實驗

如上所述,除了常用的MSRA-1000 [9]和MSRA [8]的基礎之外,我們還在實驗中使用了Berkeley-300資料庫[30]。 後者更具挑戰性,尚未廣泛應用於顯著性檢測。

毫不奇怪,我們發現我們在MSRA資料庫中的所有結果和發現與MSRA-1000中發現的結果非常相似。 因此,我們在本文中省略了MSRA資料庫中的所有結果。

4.1 邊界先驗驗證

在本實驗中,我們評估影象邊界畫素的背景可能性。對於每個影象,我們使用地面真值前景掩碼來計算沿著四個影象側的寬度為10個畫素(與測地線顯著性中的斑塊大小一致)的所有背景邊界畫素的百分比。MSRA-1000和Berkeley-300資料庫中所有影象的這種百分比的直方圖如圖5所示。


5。 背景畫素沿影象邊界的百分比分佈MSRA-1000資料庫[9](左)和Berkeley-300資料庫[30](右)

如圖所示,先前的邊界在MSRA-1000資料庫中是非常有效的,其中1000個影象中有961個具有超過98%邊界畫素作為背景。如圖所示,先前的邊界在MSRA-1000資料庫中是非常有效的,其中具有超過98%邊界畫素的1000個影象中的961個作為背景。 在Berkeley-300資料庫中也觀察到了以前的情況,但並不如此強烈。 300個影象中有186個,超過70%的邊界畫素作為背景。 這個資料庫對於我們的方法來說特別有挑戰性,因為一些影象確實包含在影象邊界上裁剪的大的顯著物件。

4.2 測地顯著性檢測評價

我們比較了八種以前的方法(GS GS的GS GD和GS Superpixel的GS SP簡稱)的兩種測地線顯著性方法:Itti的方法(IT)[1],光譜殘差法(SR)[21],基於圖形的視覺顯著性(GB)[22],頻率調諧方法(FT)[9],上下文感知顯著性(CA) [11],翟的方法(LC)[33],基於直方圖的對比度(HC)和基於區域的對比度(RC)[12]。 每個方法輸出一個標準化為範圍[0,255]的全解析度顯著圖。 由於計算模型的多樣性,選擇了這種方法。 對於SR,FT,LC,HC和RC,我們使用[12]的實現。 對於IT,GB和CA,我們使用原作者的公共實現。

為了測試測地線的顯著性是否與以前的方法相輔相成,我們通過平均結果來組合兩種方法。

例如,組合方法“RC + GS GD”產生一個顯著性圖,它是RC和GS GD方法的平均值。

與以前的工作類似,精確回憶曲線用於評估所有方法,包括組合方法。給定一個顯著性圖,使用閾值建立二進位制前景物件掩碼。相對於地面真實物體掩模計算其精度和回憶值。然後通過將閾值從0變為255來獲得精確回憶曲線。


圖6 (更好地檢視顏色)MSRA-1000資料庫上的平均精確回憶曲線[9]。

頂部:測地線顯著性優於所有其他方法。

底部:大地測量顯著性與HC(RC)的結合優於兩者。

MSRA-1000資料庫[9]的結果如圖6所示,我們有兩個結論:1)測地線顯著性明顯優於以前的方法。特別是能夠均勻地突顯整個物體,在高迴歸區域實現高精度。圖8顯示了示例影象和結果。2)與測地線顯著性結合後,以前的八種方法都有所改進,其中四種(FT,GB,HC,RC)均優於組合。在圖6(底部)中,我們顯示了組合之前和之後的兩種最佳組合方法GS + HC和GS + RC的結果。

為了進一步瞭解測地線的顯著性與其他方法的不同,圖7顯示了GS GD和RC方法的所有前景和背景畫素(使用地面真值掩模)的顯著性值分佈。 顯然,前景和背景在GS GD中比在RC中更好地分離。

Berkeley-300資料庫[30]的結果如圖9所示,示例結果如圖10所示。所有方法的準確性要低得多,表明這個資料庫要困難得多。 我們在測地學顯著性方面還有類似的結論:1)比以前的方法好; 2)組合後,以前的八種方法都有所改進,其中四種(CA,IT,GB,RC)都優於兩者。 在圖9(下)中,我們顯示了兩種最佳組合方法GS + GB和GS + RC組合前後的結果。


圖。 7.所有前景和背景畫素的顯著值分佈 MSRA-1000資料庫[9]用於GS GD和RC方法


圖。 8. MSRA-1000資料庫上不同方法的結果示例[9]

所有方法的執行時間總結在表1中。GS GD比所有方法快得多,對於實時應用程式很有用。唯一重要的自由引數是補丁大小。在實驗中,我們發現當它在影象尺寸[1/80,1/20]內時獲得最佳結果。由於大多數影象是400×400,我們使用10×10個貼片(大約1/40)。我們還通過比較結果與否,評估了重量限幅和邊界邊緣權重計算的影響。 事實證明,沒有這些元件的測地線顯著性仍然比以前的方法好,但是卻非常小。 這表明背景先驗確實是有用的,這些演算法元件可以進一步提高效能。

5 結論

鑑於優越的結果和測地線顯著性如此直觀的事實,這說明適當的先前開發有助於不正確的顯著性檢測問題。這是一個類似的結論,在許多其他不正確的視力問題中一再被觀察到。


圖9 (更好地檢視顏色)伯克利300資料庫上的平均精確回憶曲線[30]。

Top:測地線顯著性優於所有其他方法。

底部:大地測量顯著性與GB(RC)的結合優於兩者。


1.在具有4GB RAM的Intel 2.33GHz CPU上測量的不同方法的平均執行時間(每個影象的毫秒數)。 IT,GB和CA使用Matlab實現,而其他方法使用C ++。

由於我們的方法是建立在統計學先驗之上的,當這樣的先驗無效時,不可避免地會失敗。11顯示了典型的故障情況:顯著接觸影象邊界和複雜背景的物件。 然而,先驅者掌握了大多數影象,並且測地線顯著性表現良好。

有幾個方向可以改善測地線的顯著性:

1)減輕對背景先驗的依賴;

2)以更好的方式計算影象邊界的顯著性,而不是僅使用影象邊界求解一維顯著性問題;

3)與其他方法結合起來比通過平均的直接組合更好。

最後,我們將鼓勵未來的工作使用更具挑戰性的資料庫(例如,伯克利甚至PASCAL)推動了該領域的研究。


圖10  Berkeley-300資料庫上的不同方法的示例結果[30]


圖11  大地測量顯著性的典型故障情況:(左)突出物體在影象邊界處被顯著裁剪,並被確定為背景; (右)小孤立背景區域被識別為物件

參考文獻

1. Itti, L., Koch, C., Niebur, E.: A model of saliency-based visual attention for rapid scene analysis. IEEE Transactions on Pattern Analysis and Machine Intelligence 20, 1254–1259 (1998)

2. Parkhurst, D., Law, K., Niebur, E.: Modeling the role of saliency in the allocation of overt visual attention. Vision Research (2002)

3. Judd, T., Ehinger, K., Durand, F., Torralba, A.: Learning to predict where humans look. In: ICCV (2009)

4. Ramanathan, S., Katti, H., Sebe, N., Kankanhalli, M., Chua, T.-S.: An Eye Fixation Database for Saliency Detection in Images. In: Daniilidis, K., Maragos, P., Paragios, N. (eds.) ECCV 2010, Part IV. LNCS, vol. 6314, pp. 30–43. Springer, Heidelberg (2010)

5. Itti, L., Baldi, P.: Bayesian surprise attracts human attentions. In: NIPS (2005)

6. Bruce, N.D.B., Tsotsos, K.: Saliency based on information maximization. In: NIPS (2005)

7. Gao, D., Mahadevan, V., Vasconcelos, N.: The discriminant center-surround hypothesis for bottom-up saliency. In: NIPS (2007)

8. Liu, T., Sun, J., Zheng, N., Tang, X., Shum, H.: Learning to detect a salient object. In: CVPR (2007)

9. Achanta, R., Hemami, S., Estrada, F., Susstrunk, S.: Frequency-tuned salient region detection. In: CVPR (2009)

10. Valenti, R., Sebe, N., Gevers, T.: Image saliency by isocentric curvedness and color. In: ICCV (2009)

11. Goferman, S.,Manor, L.,Tal,A.: Context-aware saliency detection. In:CVPR(2010)

12. Cheng, M., Zhang, G., Mitra, N., Huang, X., Hu, S.: Global contrast based salient region detection. In: CVPR (2011)

13. Klein, D., Frintrop, S.: Center-surround divergence of feature statistics for salient object detection. In: ICCV (2011)

14. Rubinstein, M., Guterrez, D., Sorkine, O., Shamir, A.: A comparative study of image retargeting. In: SIGGRAPH Asia (2010)

15. Sun, J., Ling, H.: Scale and object aware image retargeting for thumbnail browsing. In: ICCV (2011)

16. Marchesotti, L., Cifarelli, C., Csurka, G.: A framework for visual saliency detection with applications to image thumbnailing. In: ICCV (2009)

17. Lempitsky, V., Kohli, P., Rother, C., Sharp, T.: Image segmentation with a bounding box prior. In: ICCV (2009)

18. Wang, L., Xue, J., Zheng, N., Hua, G.: Automatic salient object extraction with contextual cue. In: ICCV (2011)

19. Alexe, B., Deselaers, T., Ferrari, V.: What is an object. In: CVPR (2010)

20. Feng, J., Wei, Y., Tao, L., Zhang, C., Sun, J.: Salient object detection by composition. In: ICCV (2011)

21. Hou,X.,Zhang,L.:Saliencydetection:Aspectral residual approach. In:CVPR(2007)

22. Harel, J., Koch, C., Perona, P.: Graph-based visual saliency. In: NIPS (2006)

23. Grady, L., Jolly, M., Seitz, A.: Segmentation from a box. In: ICCV (2011)

24. Vicente, S., Kolmogorov, V., Rother, C.: Graph cut based image segmentation with connectivity priors. In: CVPR (2008)

25. Nowozin, S., Lampert, C.H.: Global connectivity potentials for random field models. In: CVPR (2009)

26. Butko, N.J., Movellan, J.R.: Optimal scanning for faster object detection. In: CVPR (2009)

27. Toivanen, P.J.: New geodesic distance transforms for gray-scale images. Pattern Recognition Letters 17, 437–450 (1996)

28. Veksler, O., Boykov, Y., Mehrani, P.: Superpixels and Supervoxels in an Energy Optimization Framework. In: Daniilidis, K., Maragos, P., Paragios, N. (eds.) ECCV 2010, Part V. LNCS, vol. 6315, pp. 211–224. Springer, Heidelberg (2010)

29. Martin, D., Fowlkes, C., Tal, D., Malik, J.: A database of human segmented natural images and its application to evaluating segmentation algorithms and measuring ecological statistics. In: ICCV (2001),http://www.eecs.berkeley.edu/Research/Projects/CS/vision/bsds/

30. Movahedi, V., Elder, J.H.: Design and perceptual validation of performance measures for salient object segmentation. In: IEEE Computer Society Workshop on Perceptual Organization in Computer Vision (2010),

http://elderlab.yorku.ca/~vida/SOD/index.html

31. Bai, X., Sapiro, G.: A geodesic framework for fast interactive image and video segmentation and matting. In: ICCV (2007)

32. Criminisi, A., Sharp, T., Blake, A.: GeoS: Geodesic Image Segmentation. In: Forsyth, D., Torr, P., Zisserman, A. (eds.) ECCV 2008, Part I. LNCS, vol. 5302, pp. 99–112. Springer, Heidelberg (2008)

33. Zhai, Y., Shah, M.: Visual attention detection in video sequences using spatiotemporal cues. ACM Multimedia (2006)