場(chǎng)景為Spark讀取一張MySQL表(innodb引擎), 數(shù)據(jù)量8000萬(wàn),無(wú)自增ID,業(yè)務(wù)中一個(gè)字段為(訂單ID)主鍵。要將該表數(shù)據(jù)讀取后寫入到HDFS。下面將詳細(xì)介紹Spark讀取MySQL大表超時(shí)問(wèn)題。
# 直接使用Spark提供的JDBC分區(qū)數(shù)據(jù)選項(xiàng) partitionColumn,lowerBound,upperBound
* 不可行,partitionColumn要求是數(shù)值類型,這個(gè)表中并沒(méi)有雖有一些數(shù)值類型字段,但是并不合適,因?yàn)樽侄沃捣沁f增,不容易設(shè)定分區(qū)的上下界限,這就很容易造成數(shù)據(jù)傾斜。
# 采用 predicates 方式,定義一個(gè)劃分?jǐn)?shù)據(jù)的數(shù)組規(guī)則
* 使用limit 做分頁(yè)將數(shù)據(jù)劃分為60個(gè)分區(qū),同時(shí)優(yōu)化limit查詢,用主鍵做子查詢的方式優(yōu)化。雖然經(jīng)過(guò)了查詢優(yōu)化,但是運(yùn)行時(shí),依然遇到讀取超時(shí)錯(cuò)誤。問(wèn)題原因是JDBC socketTimeout 設(shè)置了3分鐘,但是某些task讀取mysql時(shí),并沒(méi)有在3分鐘內(nèi)返回?cái)?shù)據(jù),是一個(gè)慢查詢。 在這個(gè)場(chǎng)景下解決方式就是調(diào)大socketTimeout值就可以了,調(diào)成了10分鐘。
* 這里要注意的是一定要對(duì)limit做優(yōu)化,使用子查詢或者join方式,根據(jù)主鍵查詢做分頁(yè)。 例如下
`select * from table_name where id >= (select id from table_name order by id limit 100000, 1) limit 20000`.
* 如果你直接使用 `select * from table_name limit 100000,20000 `的方式。mysql會(huì)查詢出來(lái) 120000條數(shù)據(jù),然后再扔掉100000條數(shù)據(jù),這是完全沒(méi)有意義的,會(huì)有大量無(wú)意義IO操作,影響性能。
更多關(guān)于大數(shù)據(jù)培訓(xùn)的問(wèn)題,歡迎咨詢千鋒教育在線名師,如果想要了解我們的師資、課程、項(xiàng)目實(shí)操的話可以點(diǎn)擊咨詢課程顧問(wèn),獲取試聽(tīng)資格來(lái)試聽(tīng)我們的課程,在線零距離接觸千鋒教育大咖名師,讓你輕松從入門到精通。