在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

常用數據清洗的SQL對比版

人工智能與大數據技術 ? 來源:數據管道 ? 作者:寶器 ? 2022-09-13 10:32 ? 次閱讀

日常工作中,分析師會接到一些專項分析的需求,首先會搜索腦中的分析體悉,根據業務需求構建相應的分析模型(不只是機器學習模型),根據模型填充相應維度表,這些維度特征表能夠被使用的前提是假設已經清洗干凈了。

但真正的原始表是混亂且包含了很多無用的冗余特征,所以能夠根據原始數據清洗出相對干凈的特征表就很重要。

前兩天在Towards Data Science上看到一篇文章,講的是用Pandas做數據清洗,作者將常用的清洗邏輯封裝成了一個個的清洗函數。

而公司的業務數據一般存儲在數據倉庫里面,數據量很大,這時候用Pandas處理是不大方便的,更多時候用的是HiveSQL和MySql做處理。

基于此,我拓展了部分內容,寫了一個常用數據清洗的SQL對比版,腳本很簡單,重點是這些清洗場景和邏輯,大綱如圖:

adc1ad48-3305-11ed-ba43-dac502259ad0.png

01 刪除指定列、重命名列

場景

多數情況并不是底表的所有特征(列)都對分析有用,這個時候就只需要抽取部分列,對于不用的那些列,可以刪除。

重命名列可以避免有些列的命名過于冗長(比如Case When 語句),且有時候會根據不同的業務指標需求來命名。

刪除列Python版:
df.drop(col_names,axis=1,inplace=True)

刪除列SQL版:
1、selectcol_namesfromTable_Name

2、altertabletableNamedropcolumncolumnName

重命名列Python版:
df.rename(index={'row1':'A'},columns={'col1':'B'})

重命名列SQL版:
selectcol_namesascol_name_BfromTable_Name

因為一般情況下是沒有刪除的權限(可以構建臨時表),反向思考,刪除的另一個邏輯是選定指定列(Select)。

02 重復值、缺失值處理

場景:比如某網站今天來了1000個人訪問,但一個人一天中可以訪問多次,那數據庫中會記錄用戶訪問的多條記錄,而這時候如果想要找到今天訪問這個網站的1000個人的ID并根據此做用戶調研,需要去掉重復值給業務方去回訪。

缺失值:NULL做運算邏輯時,返回的結果還是NULL,這可能就會出現一些腳本運行正確,但結果不對的BUG,此時需要將NULL值填充為指定值。

重復值處理Python版:
df.drop_duplicates()

重復值處理SQL版:
1、selectdistinctcol_namefromTable_Name

2、selectcol_namefromTable_Namegroupbycol_name

缺失值處理Python版:
df.fillna(value=0)

df1.combine_first(df2)

缺失值處理SQL版:
1、selectifnull(col_name,0)valuefromTable_Name

2、selectcoalesce(col_name,col_name_A,0)asvaluefromTable_Name

3、selectcasewhencol_nameisnullthen0elsecol_nameendfromTable_Name

03 替換字符串空格、清洗*%@等垃圾字符、字符串拼接、分隔等字符串處理

場景:理解用戶行為的重要一項是去假設用戶的心理,這會用到用戶的反饋意見或一些用研的文本數據,這些文本數據一般會以字符串的形式存儲在數據庫中,但用戶反饋的這些文本一般都會很亂,所以需要從這些臟亂的字符串中提取有用信息,就會需要用到文字符串處理函數。

字符串處理Python版:
##1、空格處理
df[col_name]=df[col_name].str.lstrip()

##2、*%d等垃圾符處理
df[col_name].replace('&#.*','',regex=True,inplace=True)

##3、字符串分割
df[col_name].str.split('分割符')

##4、字符串拼接
df[col_name].str.cat()

字符串處理SQL版:
##1、空格處理
selectltrim(col_name)fromTable_name

##2、*%d等垃圾符處理
selectregexp_replace(col_name,正則表達式)fromTable_name

##3、字符串分割
selectsplit(col_name,'分割符')fromTable_name

##4、字符串拼接
selectconcat_ws(col_name,'拼接符')fromTable_name

04 合并處理

場景:有時候你需要的特征存儲在不同的表里,為便于清洗理解和操作,需要按照某些字段對這些表的數據進行合并組合成一張新的表,這樣就會用到連接等方法。

合并處理Python版:

左右合并
1、pd.merge(left,right,how='inner',on=None,left_on=None,right_on=None,
left_index=False,right_index=False,sort=True,
suffixes=('_x','_y'),copy=True,indicator=False,
validate=None)
2、pd.concat([df1,df2])

上下合并
df1.append(df2,ignore_index=True,sort=False)

合并處理SQL版:

左右合并
selectA.*,B.*fromTable_aAjoinTable_bBonA.id=B.id

selectA.*fromTable_aAleftjoinTable_bBonA.id=B.id

上下合并
## Union:對兩個結果集進行并集操作,不包括重復行,同時進行默認規則的排序;
## Union All:對兩個結果集進行并集操作,包括重復行,不進行排序;

selectA.*fromTable_aA
union
selectB.*fromTable_bB

# Union 因為會將各查詢子集的記錄做比較,故比起Union All ,通常速度都會慢上許多。一般來說,如果使用Union All能滿足要求的話,務必使用Union All。
05、窗口函數的分組排序

場景:假如現在你是某寶的分析師,要分析今年不同店的不同品類銷售量情況,需要找到那些銷量較好的品類,并在第二年中加大曝光,這個時候你就需要將不同店里不同品類進行分組,并且按銷量進行排序,以便查找到每家店銷售較好的品類。

addca792-3305-11ed-ba43-dac502259ad0.png

Demo數據如上,一共a,b,c三家店鋪,賣了不同品類商品,銷量對應如上,要找到每家店賣的最多的商品。
窗口分組Python版:

df['Rank']=df.groupby(by=['Sale_store'])['Sale_Num'].transform(lambdax:x.rank(ascending=False))

窗口分組SQL版:

select
*
from
(
Select
*,
row_number()over(partitionbySale_storeorderbySale_Numdesc)rk
from
table_name
)bwhereb.rk=1

ae012900-3305-11ed-ba43-dac502259ad0.png

可以很清晰的看到,a店鋪賣的最火的是蔬菜,c店鋪賣的最火的是雞肉,b店鋪?

嗯,b店鋪很不錯,賣了888份寶器狗。

總結,上面的內容核心是掌握這些數據清洗的應用場景,這些場景幾乎可以涵蓋90%的數據分析前數據清洗的內容。而對于分析模型來說,SQL和Python都是工具,如果熟悉SQL,是能夠更快速、方便的將特征清洗用SQL實現。

所以,請別張口閉口數據科學,你竟SQL都不會。




審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • SQL
    SQL
    +關注

    關注

    1

    文章

    781

    瀏覽量

    44852
  • MySQL
    +關注

    關注

    1

    文章

    849

    瀏覽量

    27613
  • 機器學習
    +關注

    關注

    66

    文章

    8493

    瀏覽量

    134174
  • python
    +關注

    關注

    56

    文章

    4825

    瀏覽量

    86292

原文標題:5大SQL數據清洗方法!

文章出處:【微信號:TheBigData1024,微信公眾號:人工智能與大數據技術】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    大促數據庫壓力激增,如何一眼定位 SQL 執行來源?

    你是否曾經遇到過這樣的情況:在大促活動期間,用戶訪問量驟增,數據庫的壓力陡然加大,導致響應變慢甚至服務中斷?更讓人頭疼的是,當你試圖快速定位問題所在時,卻發現難以確定究竟是哪個業務邏輯中的 SQL
    的頭像 發表于 06-10 11:32 ?86次閱讀
    大促<b class='flag-5'>數據</b>庫壓力激增,如何一眼定位 <b class='flag-5'>SQL</b> 執行來源?

    超聲波清洗設備的清洗效果如何?

    超聲波清洗設備是一種常用清洗各種物體的技術,它通過超聲波振蕩產生的微小氣泡在液體中破裂的過程來產生高能量的沖擊波,這些沖擊波可以有效地去除表面和細微裂縫中的污垢、油脂、污染物和雜質。超聲波
    的頭像 發表于 06-06 16:04 ?83次閱讀
    超聲波<b class='flag-5'>清洗</b>設備的<b class='flag-5'>清洗</b>效果如何?

    超聲波清洗機是否需要使用清洗劑?如何選擇合適的清洗劑?

    超聲波清洗機是一種常用清洗物品的設備,通過利用超聲波的震動效應來去除污垢和污染物。使用超聲波清洗機是否需要配合清洗劑呢?如何選擇合適的
    的頭像 發表于 05-15 16:20 ?207次閱讀
    超聲波<b class='flag-5'>清洗</b>機是否需要使用<b class='flag-5'>清洗</b>劑?如何選擇合適的<b class='flag-5'>清洗</b>劑?

    Devart: dbForge Compare Bundle for SQL Server—比較SQL數據庫最簡單、最準確的方法

    ? dbForge Compare Bundle For SQL Server:包含兩個工具,可幫助您節省用于手動數據庫比較的 70% 的時間 dbForge數據比較 幫助檢測和分析實時SQL
    的頭像 發表于 01-17 11:35 ?475次閱讀

    dbForge Studio For SQL Server:用于有效開發的最佳SQL Server集成開發環境

    dbForge Studio For SQL Server:用于有效開發的最佳SQL Server集成開發環境 SQL編碼助手 SQL代碼分析 查詢分析器 可視化查詢生成器
    的頭像 發表于 01-16 10:36 ?641次閱讀

    通過Skyvia Connect SQL終端節點訪問任何數據

    通過 Skyvia Connect SQL 終端節點訪問任何數據 ? 通過 Skyvia Connect SQL 終端節點訪問任何數據ADO.NET
    的頭像 發表于 01-02 09:31 ?321次閱讀
    通過Skyvia Connect <b class='flag-5'>SQL</b>終端節點訪問任何<b class='flag-5'>數據</b>

    如何使用SQL進行數據分析

    使用SQL進行數據分析是一個強大且靈活的過程,它涉及從數據庫中提取、清洗、轉換和聚合數據,以便進行進一步的分析和洞察。 1.
    的頭像 發表于 11-19 10:26 ?1186次閱讀

    SQL錯誤代碼及解決方案

    SQL數據庫開發和管理中,常見的錯誤代碼及其解決方案可以歸納如下: 一、語法錯誤(Syntax Errors) 錯誤代碼 :無特定代碼,但通常會在錯誤消息中明確指出是語法錯誤。 原因 :SQL語句
    的頭像 發表于 11-19 10:21 ?6212次閱讀

    常用SQL函數及其用法

    SQL(Structured Query Language)是一種用于管理和操作關系數據庫的編程語言。SQL 提供了豐富的函數庫,用于數據檢索、數據
    的頭像 發表于 11-19 10:18 ?1278次閱讀

    SQL與NoSQL的區別

    在信息技術領域,數據庫是存儲和管理數據的核心組件。隨著互聯網的發展和大數據時代的到來,對數據庫的需求也在不斷變化。SQL和NoSQL作為兩種
    的頭像 發表于 11-19 10:15 ?533次閱讀

    數據從業者必知必會的Hive SQL調優技巧

    數據從業者必知必會的Hive SQL調優技巧 摘要 :在大數據領域中,Hive SQL被廣泛應用于數據倉庫的
    的頭像 發表于 09-24 13:30 ?629次閱讀

    數據數據恢復—SQL Server數據庫出現823錯誤的數據恢復案例

    SQL Server數據庫故障: SQL Server附加數據庫出現錯誤823,附加數據庫失敗。數據
    的頭像 發表于 09-20 11:46 ?642次閱讀
    <b class='flag-5'>數據</b>庫<b class='flag-5'>數據</b>恢復—<b class='flag-5'>SQL</b> Server<b class='flag-5'>數據</b>庫出現823錯誤的<b class='flag-5'>數據</b>恢復案例

    恒訊科技分析:sql數據庫怎么用?

    SQL數據庫的使用通常包括以下幾個基本步驟: 1、選擇數據庫系統: 選擇適合您需求的SQL數據庫系統,如MySQL、PostgreSQL、M
    的頭像 發表于 07-15 14:40 ?574次閱讀

    數據數據恢復—SQL Server數據庫所在分區空間不足報錯的數據恢復案例

    SQL Server數據數據恢復環境: 某品牌服務器存儲中有兩組raid5磁盤陣列。操作系統層面跑著SQL Server數據庫,
    的頭像 發表于 07-10 13:54 ?874次閱讀

    什么是 Flink SQL 解決不了的問題?

    簡介 在實時數據開發過程中,大家經常會用 Flink SQL 或者 Flink DataStream API 來做數據加工。通常情況下選用2者都能加工出想要的數據,但是總會有 Flin
    的頭像 發表于 07-09 20:50 ?543次閱讀
    主站蜘蛛池模板: 日本免费黄视频 | 午夜影视在线视频观看免费 | 色多多高清在线观看视频www | 国产一区二区在线观看免费 | 亚洲国产精品自在现线让你爽 | 国产精品资源网站在线观看 | 亚洲午夜免费 | 色播五月婷婷 | 一级aaa毛片 | 一区二区三区四区在线免费观看 | 一级 黄 色 片免费 一级@片 | 人人做人人爽人人爱 | 免费观看成人毛片 | 粉嫩尤物在线456 | 97久久草草超级碰碰碰 | 亚洲综合欧美日本另类激情 | 欧美一区二区三区成人看不卡 | 伊人涩 | 亚洲高清不卡视频 | 国内精品第一页 | 伊人草| 99久久99久久久99精品齐 | 999久久久国产精品 999久久久免费精品国产牛牛 | 久久免费99精品久久久久久 | 色免费看 | 国产精品久久久久久久久久影院 | 午夜久久网 | 日韩欧美不卡片 | 五月婷婷六月丁香 | 欧美性性性性性ⅹxxbbbb | 免费啪视频在线观看 | 最近视频在线播放免费观看 | 最近2018年中文字幕免费图片 | 国产精品莉莉欧美自在线线 | 午夜免费的国产片在线观看 | 四虎影片国产精品8848 | 西西人体大胆高清啪啪欧洲 | 国产精品单位女同事在线 | 欧美亚洲综合另类型色妞 | 久久成人福利视频 | 久久精品国产6699国产精 |