Über
Pyspark, AWS Core responsibilities: Data pipeline development:
Design, develop, and maintain high-performance data pipelines using PySpark. Performance optimization:
Optimize and tune existing data processing workflows for better performance and efficiency. Data transformation:
Implement complex data transformations and integrations, such as reading from external sources, merging data, and ensuring data quality.
Sprachkenntnisse
- English
Hinweis für Nutzer
Dieses Stellenangebot stammt von einer Partnerplattform von TieTalent. Klicken Sie auf „Jetzt Bewerben“, um Ihre Bewerbung direkt auf deren Website einzureichen.