27 Jan 2026
Job Description
工作內容
▼ 工作內容
負責建構並優化支撐「SaaS+Database」服務的大數據基礎設施(規模達數十TB)。
您將負責以下一項或多項工作:
・新建或優化用於網頁資料爬取的管線
・資料清洗與資料豐富化處理
・建立以提升資料品質為目的的品質監控環境
・將資料基礎設施優化為更具擴充性且更具成本效益的平台
・著眼於未來資料科學應用,設計資料基礎設施及資料品質管理體系
▼ 技術堆疊
- 資料蒐集
- Python (Scrapy)
- AWS Fargate for Amazon ECS
- Amazon Managed Workflows for Apache Airflow
- 資料儲存
- Amazon S3
- Amazon Aurora PostgreSQL
- 資料轉換
- Apache Spark on Databricks
- 其他
- GitHub
- Slack
- Notion
- Asana
- Google Workspace
▼ 內部工具
Slack / GitHub / Notion / Asana / Google Workspace
*SalesNow 以「生成式 AI × 大規模資料庫」為核心,開發從根本上改變銷售活動常識的 SaaS 產品。
我們已收錄超過 1,400 萬筆企業資料,儘管正職員工僅約 20 人,也已達成 PMF。
目前正值即將進入 B 輪融資階段之際,作為日本國內最大規模之一的 AI 企業資料雲,SalesNow 正邁入進一步飛躍的成長階段。
在日本,隨著超高齡化與人口減少持續加劇,有限的人力資源需要發揮更高的生產力。
我們正運用 AI 與資料的力量,消除銷售現場的低效率,打造支撐企業成長的新型基礎設施。
目前,我們正致力於強化產品端組織,並尋找能夠在即將進入 B 輪的新創公司開發組織中,與我們共同打造未來 SalesNow 的創始成員。
您願意活用迄今累積的經驗,與我們一起打造一項能夠從根本上解決深層工作方式問題、並成為職涯集大成之作的事業嗎?
負責建構並優化支撐「SaaS+Database」服務的大數據基礎設施(規模達數十TB)。
您將負責以下一項或多項工作:
・新建或優化用於網頁資料爬取的管線
・資料清洗與資料豐富化處理
・建立以提升資料品質為目的的品質監控環境
・將資料基礎設施優化為更具擴充性且更具成本效益的平台
・著眼於未來資料科學應用,設計資料基礎設施及資料品質管理體系
▼ 技術堆疊
- 資料蒐集
- Python (Scrapy)
- AWS Fargate for Amazon ECS
- Amazon Managed Workflows for Apache Airflow
- 資料儲存
- Amazon S3
- Amazon Aurora PostgreSQL
- 資料轉換
- Apache Spark on Databricks
- 其他
- GitHub
- Slack
- Notion
- Asana
- Google Workspace
▼ 內部工具
Slack / GitHub / Notion / Asana / Google Workspace
*SalesNow 以「生成式 AI × 大規模資料庫」為核心,開發從根本上改變銷售活動常識的 SaaS 產品。
我們已收錄超過 1,400 萬筆企業資料,儘管正職員工僅約 20 人,也已達成 PMF。
目前正值即將進入 B 輪融資階段之際,作為日本國內最大規模之一的 AI 企業資料雲,SalesNow 正邁入進一步飛躍的成長階段。
在日本,隨著超高齡化與人口減少持續加劇,有限的人力資源需要發揮更高的生產力。
我們正運用 AI 與資料的力量,消除銷售現場的低效率,打造支撐企業成長的新型基礎設施。
目前,我們正致力於強化產品端組織,並尋找能夠在即將進入 B 輪的新創公司開發組織中,與我們共同打造未來 SalesNow 的創始成員。
您願意活用迄今累積的經驗,與我們一起打造一項能夠從根本上解決深層工作方式問題、並成為職涯集大成之作的事業嗎?
產業別
IT
薪資
年薪400萬至2,000萬日圓
工作地點詳細資訊
日本境內(完全遠端工作)
最近車站
澀谷站
Requirements
日文能力要求
Fluent(Equivalent of N1)
工作經驗要求
▼ 必備條件
・3年以上使用 SQL 與 Python 進行資料處理的經驗
・3年以上使用公有雲的經驗
・目前居住於日本,或可以搬遷至日本
・由於日常工作以日文進行,需具備以日文進行商務溝通的能力(參考標準:相當於 JLPT N1 或以上)
▼ 加分條件
・使用 Apache Spark(含 PySpark)進行資料處理的經驗
・使用 AWS Analytics 相關服務的經驗
・使用 Databricks 的經驗
・資料管理經驗
・認同 DataOps 的理念
・3年以上使用 SQL 與 Python 進行資料處理的經驗
・3年以上使用公有雲的經驗
・目前居住於日本,或可以搬遷至日本
・由於日常工作以日文進行,需具備以日文進行商務溝通的能力(參考標準:相當於 JLPT N1 或以上)
▼ 加分條件
・使用 Apache Spark(含 PySpark)進行資料處理的經驗
・使用 AWS Analytics 相關服務的經驗
・使用 Databricks 的經驗
・資料管理經驗
・認同 DataOps 的理念
學歷要求
大學畢業及以上
Features
工作特點
Weekends and Holidays Off
Pay Raise
Any Age Welcome
Any Gender Welcome
職缺名稱
【海外人才職缺/正職】資料工程師(居住於日本)
工作時間
・全彈性工時制度(無核心時段)
・每日標準工時:8小時
・每日標準工時:8小時
簽證要求
A valid visa with eligibility to work
工作福利
◆ 各類津貼
・交通費全額補助
・居家辦公津貼(每月10,000日圓)
・購書補助(每月上限5,000日圓)
・技能提升與生產力提升支援(每月上限10,000日圓)
・聚餐交流津貼
・內部推薦招募獎勵
◆ 健康與保障支援
・社會保險完備(健康保險、厚生年金、勞災保險、雇用保險)
・保母補助制度
・綜合健康檢查(每兩年一次/40歲以上適用)
◆ 其他
・股票選擇權制度
・交通費全額補助
・居家辦公津貼(每月10,000日圓)
・購書補助(每月上限5,000日圓)
・技能提升與生產力提升支援(每月上限10,000日圓)
・聚餐交流津貼
・內部推薦招募獎勵
◆ 健康與保障支援
・社會保險完備(健康保險、厚生年金、勞災保險、雇用保險)
・保母補助制度
・綜合健康檢查(每兩年一次/40歲以上適用)
◆ 其他
・股票選擇權制度
交通補助
Fully covered
試用期
3個月
保險
Employment Insurance
Health Insurance
Workers' Accident Compensation Insurance
招募方式
Direct Hiring
Other jobs
- IT Shibuya-ku
Similar jobs
no result