logo
工作內容
我們正積極招募優秀人才,需要熱血有想法的夥伴們一同推進新一代資訊系統轉型,主要職責為運用程式語言 (Python/SQL) 於 現代化雲端數據平台 (Cloud Data Platform) 上建構企業級數據湖倉 (Lakehouse),並負責將數據分析應用深度整合至現有 Java Web Application 中。我們尋找具備數據工程底蘊,且不排斥或熟悉 Java 應用整合的跨域技術人才。

1. 雲端數據工程開發 (Cloud Data Engineering)
•平台建置: 負責 雲端數據平台 (SaaS/PaaS) 環境之基礎建設,包含Lakehouse架構規劃、數據湖(Data Lake)管理與 ETL Pipeline 排程設計。
•ETL/ELT 程式開發: 運用 PySpark (Python) 與 進階SQL,在分散式運算環境(如Spark Notebook) 中開發高效率的數據轉換邏輯。
•實作 Medallion Architecture (Bronze/Silver/Gold) 的資料處理流。
•將複雜的資料庫邏輯(Stored Procedure)移植並優化為Spark分散式運算邏輯。
•數據同步機制: 維護地端至雲端的資料傳輸通道 (Data Gateway),確保關聯式資料庫與雲端平台間的「微批次 (Micro-batch)」增量同步穩定運作。

2. Java 平台整合與應用 (Java Integration & Embedded Analytics)
•嵌入式分析整合: 負責數據平台與Java系統的對接,使用 Embedded Analytics SDK 進行報表/分析模組嵌入開發。
•權限與資安實作:
•開發後端驗證服務 (Token Service),實作動態權限生成與 RLS (Row-Level Security) 邏輯,確保 Java 使用者 Session 與數據權限的精確對應。
•實作前端 UI 控制(如透過 JS SDK 控制匯出權限、過濾器狀態),確保數據應用符合資安規範。

3. 資料治理與合規落實 (Governance & Compliance)
•個資保護工程: 依據 ISO 27001 與個資法要求,在ETL過程中實作自動化遮罩(Masking) 與 雜湊 (Hashing) 處理。
•維運監控: 設定平台全域稽核日誌 (Audit Logs) 與異常流量告警,確保數據存取的可追溯性。


工作說明
  • 工作縣市:臺北市
  • 上班地點:台北市
  • 工作待遇:待遇面議
  • 上班時段:依公司規定
  • 需求人數:1~2人
條件要求
  • 工作經歷: 5年以上
  • 學歷要求:學士
  • 科系要求: 無填寫
  • 專長需求:
  • 擅長工具:
  • 具備駕照:
  • 其他條件:
聯絡方式
  • 聯絡人:
  • 應徵方式:洽詢聯絡人(點選下方取得更多應徵資訊)或專人媒合服務團隊(02-2701-3181轉302)。
  • 職缺有效日:2026/03/14
企業專案需求
其他職缺推薦