工作內容
我們正積極招募優秀人才,需要熱血有想法的夥伴們一同推進新一代資訊系統轉型,主要職責為運用程式語言 (Python/SQL) 於 現代化雲端數據平台 (Cloud Data Platform) 上建構企業級數據湖倉 (Lakehouse),並負責將數據分析應用深度整合至現有 Java Web Application 中。我們尋找具備數據工程底蘊,且不排斥或熟悉 Java 應用整合的跨域技術人才。
1. 雲端數據工程開發 (Cloud Data Engineering)
•平台建置: 負責 雲端數據平台 (SaaS/PaaS) 環境之基礎建設,包含Lakehouse架構規劃、數據湖(Data Lake)管理與 ETL Pipeline 排程設計。
•ETL/ELT 程式開發: 運用 PySpark (Python) 與 進階SQL,在分散式運算環境(如Spark Notebook) 中開發高效率的數據轉換邏輯。
•實作 Medallion Architecture (Bronze/Silver/Gold) 的資料處理流。
•將複雜的資料庫邏輯(Stored Procedure)移植並優化為Spark分散式運算邏輯。
•數據同步機制: 維護地端至雲端的資料傳輸通道 (Data Gateway),確保關聯式資料庫與雲端平台間的「微批次 (Micro-batch)」增量同步穩定運作。
2. Java 平台整合與應用 (Java Integration & Embedded Analytics)
•嵌入式分析整合: 負責數據平台與Java系統的對接,使用 Embedded Analytics SDK 進行報表/分析模組嵌入開發。
•權限與資安實作:
•開發後端驗證服務 (Token Service),實作動態權限生成與 RLS (Row-Level Security) 邏輯,確保 Java 使用者 Session 與數據權限的精確對應。
•實作前端 UI 控制(如透過 JS SDK 控制匯出權限、過濾器狀態),確保數據應用符合資安規範。
3. 資料治理與合規落實 (Governance & Compliance)
•個資保護工程: 依據 ISO 27001 與個資法要求,在ETL過程中實作自動化遮罩(Masking) 與 雜湊 (Hashing) 處理。
•維運監控: 設定平台全域稽核日誌 (Audit Logs) 與異常流量告警,確保數據存取的可追溯性。
工作說明
-
工作縣市:臺北市
- 上班地點:台北市
-
工作待遇:待遇面議
-
上班時段:依公司規定
-
需求人數:1~2人
條件要求
-
工作經歷:
5年以上
-
學歷要求:學士
-
科系要求:
無填寫
-
專長需求:
-
擅長工具:
- 具備駕照:
-
其他條件: