- No elements found. Consider changing the search query.


ทักษะ:
DevOps, Automation, Kubernetes
ประเภทงาน:
งานประจำ
เงินเดือน:
สามารถต่อรองได้
- Managing 7-8 Professional Service Engineers in responsible for AWS cloud solution architecting and implementation/migration according to the project requirements.
- Team resources management.
- Acting as the key of Cloud technical aspect for the consulting team to provide the technical of AWS cloud consulting to customers.
- Design AWS Cloud solution architecture in response to the client s requirement.
- Define the scope of work & estimate mandays for cloud implementation.
- Managing cloud project delivery to meet the customer requirements timeline.
- Support AWS, GCP cloud partner competency building e.g. AWS Certification and delivery professional service process and documentation.
- Speaker of AWS technical side for True IDC webinar, online event for CloudTalk.
- Key Driving for building team competency expansion to meet the competency roadmap yearly strategy e.g. DevOps, IaC, Automation, Kubernetes, App modernization on AWS cloud.
- Experience in leading cloud AWS implementation and delivery team.
- Experience of designing and implementing comprehensive Cloud computing solutions on various Cloud technologies for AWS, GCP is plus.
- Experience in infra as a code in cloud native (Cloud Formation) or other e.g. Terraform, Ansible implementation.
- Experience in building multi-tier Service Oriented Architecture (SOA) applications.
- Knowledge of Linux, Windows, Apache, IIS, NoSQL operations as its architecture to the Cloud.
- Knowledge of OS administrative for both Windows and UNIX technologies.
- Knowledge of key concerns and how they are addressed in Cloud Computing such as security, performance and scalability.
- Knowledge of Kubernetes, Containers and CI/CD, DevOps.
- Experience with RDBMS designing and implementing over the Cloud.
- Prior experience with application development on the various development solutions as Java,.Net, Python etc.
- Experience in,.Net and/or Spring Framework and RESTful web services.
- UNIX shell scripting.
- AWS Certified Solution Architect - Associate, Prefer Professional level.
ประสบการณ์:
5 ปีขึ้นไป
ทักษะ:
Python, ETL, Compliance
ประเภทงาน:
งานประจำ
เงินเดือน:
สามารถต่อรองได้
- Design and implement scalable, reliable, and efficient data pipelines for ingesting, processing, and storing large amounts of data from a variety of sources using cloud-based technologies, Python, and PySpark.
- Build and maintain data lakes, data warehouses, and other data storage and processing systems on the cloud.
- Write and maintain ETL/ELT jobs and data integration scripts to ensure smooth and accurate data flow.
- Implement data security and compliance measures to protect data privacy and ensure regulatory compliance.
- Collaborate with data scientists and analysts to understand their data needs and provide them with access to the required data.
- Stay up-to-date on the latest developments in cloud-based data engineering, particularly in the context of Azure, AWS and GCP, and proactively bring new ideas and technologies to the team.
- Monitor and optimize the performance of data pipelines and systems, identifying and resolving any issues or bottlenecks that may arise.
- Bachelor s or Master s degree in Computer Science, Data Science, or a related field.
- Minimum of 5 years of experience as a Data Engineer, with a strong focus on cloud-based data infrastructure.
- Proficient programming skills in Python, Java, or a similar language, with an emphasis on Python.
- Extensive experience with cloud-based data storage and processing technologies, particularly Azure, AWS and GCP.
- Familiarity with ETL/ELT tools and frameworks such as Apache Beam, Apache Spark, or Apache Flink.
- Knowledge of data modeling principles and experience working with SQL databases.
- Strong problem-solving skills and the ability to troubleshoot and resolve issues efficiently.
- Excellent communication and collaboration skills to work effectively with cross-functional teams.
- Location: True Digital Park, Bangkok (Hybrid working).
ทักษะ:
Cloud Computing, SAP, Linux
ประเภทงาน:
งานประจำ
เงินเดือน:
สามารถต่อรองได้
- Acting as the key of Cloud technical aspect for the consulting team to provide the technical consulting to both internal and external customers.
- Design Cloud solution architecture in response to the client s requirement.
- Provide advisory consulting service to the client regarding the True IDC Consulting practices.
- Create Cloud technical requirements to the client s migration plan.
- Experience of designing and implementing comprehensive Cloud computing solutions on various Cloud technologies e.g. AWS, GCP.
- Experience in building multi-tier Service Oriented Architecture (SOA) applications.
- Experience in SAP Cloud Infrastructure in term of architecture & design in AWS, GCP public cloud.
- Knowledge of Linux, Windows, Apache, IIS, NoSQL operations as its architecture toth e Cloud.
- Knowledge of Containerization administrative for both Windows and Linux technologies.
- Knowledge of key concerns and how they are addressed in Cloud Computing such as security, performance and scalability.
- Good in customer objective handling & Good in customer presentation skill.
- Nice to have.
- UNIX shell scripting.
- AWS Certified Solution Architect - Associate.
- GCP Certified Solution Architect - Associate.
ประสบการณ์:
6 ปีขึ้นไป
ทักษะ:
Big Data, Good Communication Skills, Scala
ประเภทงาน:
งานประจำ
เงินเดือน:
สามารถต่อรองได้
- Collate technical and functional requirements through workshops with senior stakeholders in risk, actuarial, pricing and product teams.
- Translate business requirements to technical solutions leveraging strong business acumen.
- Analyse current business practice, processes, and procedures as well as identifying future business opportunities for leveraging Data & Analytics solutions on various platforms.
- Develop solution proposals that provide details of project scope, approach, deliverables and project timeline.
- Provide architectural expertise to sales, project and other analytics teams.
- Identify risks, assumptions, and develop pricing estimates for the Data & Analytics solutions.
- Provide solution oversight to delivery architects and teams.
- Skills and attributes for success.
- 6-8 years of experience in Big Data, data warehouse, data analytics projects, and/or any Information Management related projects.
- Prior experience building large scale enterprise data architectures using commercial and/or open source Data Analytics technologies.
- Ability to estimate complexity, effort and cost.
- Ability to produce client ready solution architecture, business understandable presentations and good communication skills to lead and run workshops.
- Strong knowledge of data manipulation languages such as Spark, Scala, Impala, Hive SQL, Apache Nifi and Kafka necessary to build and maintain complex queries, streaming and real-time data pipelines.
- Data modelling and architecting skills including strong foundation in data warehousing concepts, data normalisation, and dimensional data modelling such as OLAP, or data vault.
- Good fundamentals around security integration including Kerberos authentication, SAML and data security and privacy such as data masking and tokenisation techniques.
- Good knowledge in DevOps engineering using Continuous Integration/ Delivery tools.
- An in depth understanding of Cloud solutions (AWS, Azure and/or GCP) and experienced in integrating into traditional hosting/delivery models.
- Ideally, you ll also have.
- Experience in engaging with both technical and non-technical stakeholders.
- Strong consulting experience and background, including engaging directly with clients.
- Demonstrable Cloud experience with Azure, AWS or GCP.
- Configuration and management of databases.
- Experience with big data tools such as Hadoop, Spark, Kafka.
- Experience with AWS and MS cloud services.
- Python, SQL, Java, C++, Scala.
- Highly motivated individuals with excellent problem-solving skills and the ability to prioritize shifting workloads in a rapidly changing industry. An effective communicator, you ll be a confident leader equipped with strong people management skills and a genuine passion to make things happen in a dynamic organization.
- What working at EY offers.
- Support, coaching and feedback from some of the most engaging colleagues around.
- Opportunities to develop new skills and progress your career.
- The freedom and flexibility to handle your role in a way that s right for you.
- about EY
- As a global leader in assurance, tax, transaction and advisory services, we hire and develop the most passionate people in their field to help build a better working world. This starts with a culture that believes in giving you the training, opportunities and creative freedom to make things better. So that whenever you join, however long you stay, the exceptional EY experience lasts a lifetime.
- If you can confidently demonstrate that you meet the criteria above, please contact us as soon as possible.
- Join us in building a better working world. Apply now!.
ประสบการณ์:
2 ปีขึ้นไป
ทักษะ:
Big Data, Good Communication Skills, Scala
ประเภทงาน:
งานประจำ
เงินเดือน:
สามารถต่อรองได้
- You will be involved in all aspects of the project life cycle, including strategy, road-mapping, architecture, implementation and development.
- You will work with business and technical stakeholders to gather and analyse business requirements to convert them into the technical requirements, specifications, mapping documents.
- You will collaborate with technical teams, making sure the newly implemented solutions/technology are meeting business requirements.
- Outputs include workshop sessions and documentation including mapping documents.
- Develop solution proposals that provide details of project scope, approach, deliverables and project timeline.
- Skills and attributes for success.
- 2-4 years of experience in Big Data, data warehouse, data analytics projects, and/or any Information Management related projects.
- Prior experience building large scale enterprise data architectures using commercial and/or open source Data Analytics technologies.
- Ability to produce client ready solution, business understandable presentations and good communication skills to lead and run workshops.
- Strong knowledge of data manipulation languages such as Spark, Scala, Impala, Hive SQL, Apache Nifi and Kafka.
- Data modelling and architecting skills including strong foundation in data warehousing concepts, data normalisation, and dimensional data modelling such as OLAP, or data vault.
- Good knowledge in DevOps engineering using Continuous Integration/ Delivery tools.
- An in depth understanding of Cloud solutions (AWS, Azure and/or GCP) and experienced in integrating into traditional hosting/delivery models.
- Ideally, you ll also have.
- Experience in engaging with both technical and non-technical stakeholders.
- Strong consulting experience and background, including engaging directly with clients.
- Demonstrable Cloud experience with Azure, AWS or GCP.
- Configuration and management of databases.
- Experience with big data tools such as Hadoop, Spark, Kafka.
- Experience with AWS and MS cloud services.
- Python, SQL, Java, C++, Scala.
- Highly motivated individuals with excellent problem-solving skills and the ability to prioritize shifting workloads in a rapidly changing industry. An effective communicator, you ll be a confident leader equipped with strong people management skills and a genuine passion to make things happen in a dynamic organization.
- What working at EY offers.
- Support, coaching and feedback from some of the most engaging colleagues around.
- Opportunities to develop new skills and progress your career.
- The freedom and flexibility to handle your role in a way that s right for you.
- about EY
- As a global leader in assurance, tax, transaction and advisory services, we hire and develop the most passionate people in their field to help build a better working world. This starts with a culture that believes in giving you the training, opportunities and creative freedom to make things better. So that whenever you join, however long you stay, the exceptional EY experience lasts a lifetime.
- If you can confidently demonstrate that you meet the criteria above, please contact us as soon as possible.
- Join us in building a better working world. Apply now!.
ทักษะ:
Statistics, Data Analysis, SQL
ประเภทงาน:
งานประจำ
เงินเดือน:
สามารถต่อรองได้
- Data Science Foundations: Strong foundation in data science, statistics, and advanced data analytics, including data visualization to communicate insights effectively.
- Exploratory Data Analysis (EDA): Skilled in performing EDA to uncover patterns, detect anomalies, and generate meaningful insights from data.
- Experimentation & Testing: Skilled in designing A/B tests or other experimental designs to measure business impact, analyze results, and communicate findings clearly to stakeholders.
- Machine Learning & AI.
- Model Development & Deployment: Experience in building, deploying, and optimizing machine learning models on large datasets.
- Generative AI (GenAI): Opportunity to work on GenAI projects that drive innovation and impactful business solutions.
- Problem-Solving & Collaboration.
- Analytical & Problem-Solving Skills: Strong analytical and problem-solving abilities focused on deriving actionable insights from data.
- Team Collaboration: Ability to work effectively both independently and as part of a collaborative team, contributing to shared project goals.
- Technical Expertise.
- Proficiency in Big Data Technologies: Expertise in Spark, PySpark, and SQL for large-scale data processing focused on feature creation for machine learning models and data analysis tasks.
- Programming Skills: Strong proficiency in Python for data analysis and machine learning (including libraries like Pandas, PySpark, Scikit-learn, XGBoost, LightGBM, Matplotlib, Plotly, Seaborn, etc.).
- Python Notebooks: Familiarity with Jupyter, Google Colab, or Apache Zeppelin for interactive data analysis and model development.
- Platform Experience: Experience in using PySpark on cloud platforms such as Azure Databricks or other platforms (including on-premise) is a plus.
- Education & Experience.
- Educational Background: Bachelor s or advanced degree in Data Science, Statistics, Computer Science, Computer Engineering, Mathematics, Information Technology, Engineering, or related fields.
- Work Experience: At least 2-3 years of relevant experience in Data Science, Analytics, or Machine Learning, with demonstrated technical expertise and a proven track record of driving data-driven business solutions.
ประสบการณ์:
5 ปีขึ้นไป
ทักษะ:
Data Analysis, Automation, Python
ประเภทงาน:
งานประจำ
เงินเดือน:
สามารถต่อรองได้
- Work with stakeholders throughout the organization to understand data needs, identify issues or opportunities for leveraging company data to propose solutions for support decision making to drive business solutions.
- Adopting new technology, techniques, and methods such as machine learning or statistical techniques to produce new solutions to problems.
- Conducts advanced data analysis and create the appropriate algorithm to solve analytics problems.
- Improve scalability, stability, accuracy, speed, and efficiency of existing data model.
- Collaborate with internal team and partner to scale up development to production.
- Maintain and fine tune existing analytic model in order to ensure model accuracy.
- Support the enhancement and accuracy of predictive automation capabilities based on valuable internal and external data and on established objectives for Machine Learning competencies.
- Apply algorithms to generate accurate predictions and resolve dataset issues as they arise.
- Be Project manager for Data project and manager project scope, timeline, and budget.
- Manage relationships with stakeholders and coordinate work between different parties as well as providing regular update.
- Control / manage / govern Level 2 support, identify, fix and configuration related problems.
- Keep maintaining/up to date of data modelling and training model etc.
- Run through Data flow diagram for model development.
- EDUCATION.
- Bachelor's degree or higher in computer science, statistics, or operations research or related technical discipline.
- EXPERIENCE.
- At least 5 years experience in a statistical and/or data science role optimization, data visualization, pattern recognition, cluster analysis and segmentation analysis, Expertise in advanced Analytica l techniques such as descriptive statistical modelling and algorithms, machine learning algorithms, optimization, data visualization, pattern recognition, cluster analysis and segmentation analysis.
- Expertise in advanced analytical techniques such as descriptive statistical modelling and algorithms, machine learning algorithms, optimization, data visualization, pattern recognition, cluster analysis and segmentation analysis.
- Experience using analytical tools and languages such as Python, R, SAS, Java, C, C++, C#, Matlab, SPSS IBM, Tableau, Qlikview, Rapid Miner, Apache, Pig, Spotfire, Micro S, SAP HANA, Oracle, or SOL-like languages.
- Experience working with large data sets, simulation/optimization and distributed computing tools (e.g., Map/Reduce, Hadoop, Hive, Spark).
- Experience developing and deploying machine learning model in production environment.
- Knowledge in oil and gas business processes is preferrable.
- OTHER REQUIREMENTS.
ทักษะ:
Data Analysis, Statistics, Python
ประเภทงาน:
งานประจำ
เงินเดือน:
สามารถต่อรองได้
- Data Analysis: Collect, preprocess, and analyze large datasets to identify trends and actionable insights for retail business challenges..
- Model Development: Design, train, and deploy machine learning models for tasks such as demand forecasting, customer behavior analysis, and inventory optimization..
- Collaboration: Partner with cross-functional teams, including data engineers and business stakeholders, to translate requirements into data-driven solutions..
- Visualization and Communication: Present insights and findings through visualizations and dashboards to inform decision-making..
- Innovation: Stay updated on the latest tools and techniques in data science and retail analytics..
- Engineer and optimize features to improve machine learning model performance.
- Automate feature extraction pipelines for scalable workflows.
- Contribute to the deployment, monitoring, and retraining of machine learning models in production environments.
- Assist in designing and maintaining data pipelines and ensuring data quality..
- Education: Bachelor s or Master s degree in Data Science, Computer Science, Statistics, Mathematics, or a related field..
- Experience: At least 2 years of experience in data science or a related field..
- Proficiency in Python for data analysis and machine learning.
- Strong SQL skills for managing and querying large datasets.
- Experience with machine learning frameworks (e.g., scikit-learn, TensorFlow, PyTorch).
- Knowledge of data visualization tools (e.g., Tableau, Power BI, matplotlib).
- Soft Skills: Strong problem-solving, communication, and teamwork abilities..
- Exposure to MLOps tools (e.g., MLflow, Kubeflow, AWS SageMaker).
- Familiarity with data engineering tools (e.g., Apache Spark, Kafka, Airflow).
- Experience in building real-time analytics or personalization systems.
ประสบการณ์:
2 ปีขึ้นไป
ทักษะ:
Oracle, Linux, Web Services, Database Administration, English
ประเภทงาน:
งานประจำ
เงินเดือน:
฿30,000 - ฿60,000, สามารถต่อรองได้
- บำรุงรักษาซอฟต์แวร์,ฮาร์ดแวร์และเน็ตเวิร์คและอุปกรณ์ต่างๆภายในบริษัทฯ รวมทั้งสนับสนุนงานให้ทีมงานสามารถใช้งานอุปกรณ์ได้อย่างต่อเนื่อง.
- ดูแลเรื่องการ Backup, Recovery และทำ Disaster Recovery Site ตามแผนงานของบริษัทฯ.
- วิเคราะห์และแก้ไขปัญหาทางด้านเทคนิค ทั้งทางด้านซอฟต์แวร์,ฮาร์ดแวร์และเน็ตเวิร์คให้ลุล่วงไปได้ด้วยดี.
- สนับสนุนงานทางด้านเทคนิค ทั้งซอฟต์แวร์,ฮาร์ดแวร์และเน็ตเวิร์ค ให้ทีมงานสามารถดำเนินงานของโครงการเป็นไปตามแผนงานที่กำหนด.
- ให้บริการและความช่วยเหลือลูกค้า เกี่ยวกับระบบงานของบริษัทฯ และฐานข้อมูล Oracle หรือปัญหาทางด้านเทคนิคต่างๆ ให้สามารถใช้งานได้อย่างต่อเนื่องที่บริษัทลูกค้า และบนระบบ Cloud.
- ติดตั้งโปรแกรม Oracle Product, PHP และระบบงานของบริษัทฯ ที่ทำการของลูกค้า หรือบนระบบ Cloud.
- ศึกษา ค้นคว้า และนำเอาเทคโนโลยีใหม่ๆ ทั้งทางด้านซอฟต์แวร์, ฮาร์ดแวร์, เน็ตเวิร์ค และ Oracle Product มาปรับใช้งานในระบบงานของบริษัทฯ.
- จบการศึกษาปริญญาตรีทางด้าน IT สาขา Computer Science, Computer Engineer หรือสาขาอื่นๆ ที่เกี่ยวข้อง.
- มีประสบการณ์ในการติดตั้งและแก้ไขปัญหาและมีความรู้ทางด้านฐานข้อมูล Oracle Database และสามารถใช้คำสั่ง SQL ได้อย่างชำนาญ ถ้ามีความสามารถเขียน PL/SQL จะได้รับพิจารณาเป็นพิเศษ.
- มีประสบการณ์ในการติดตั้งและแก้ไขปัญหา Linux เช่น Ubuntu, CentOS, Redhat, และ Microsoft Windows ทั้ง Server และ Workstation.
- มีประสบการณ์ในการติดตั้งและตั้งค่า Web Server(Apache,nginx), PHP ถ้ามีประสบการณ์ใช้งาน Docker จะได้รับพิจารณาเป็นพิเศษ.
- มีประสบการณ์ในการเขียน Shell Script บน Linux ได้อย่างชำนาญ.
- มีประสบการณ์และความรู้ในการวิเคราะห์ปัญหาและแก้ไขปัญหาทางด้านเทคนิคต่างๆ ของซอฟต์แวร์,ฮาร์ดแวร์และเน็ตเวิร์คได้เป็นอย่างดี.
- มีประสบการณ์และความรู้ทางด้าน Network, VMware, Active Directory, Web Server, DNS, DHCP, Anti-virus และโปรแกรมสำเร็จรูปอื่นๆ.
- ถ้ามีประสบการณ์ทางด้าน AWS จะพิจารณาเป็นพิเศษ.
- มีความสามารถในการเรียนรู้และศึกษาค้นคว้าเทคโนโลยีใหม่ๆ.
ทักษะ:
Python, ASP.NET, .NET
ประเภทงาน:
งานประจำ
เงินเดือน:
สามารถต่อรองได้
- กำกับดูแล Data Pipelines ที่มีการใช้งานจริง และควบคุมงานการสร้าง Data Pipeline ใหม่ รวมถึงการดำเนินการตาม SLA ที่วางแผนร่วมกันกับทีมที่เกี่ยวข้อง.
- ศึกษาเทคโนโลยีใหม่ๆ เพื่อเป็นปรับปรุง Data Pipeline ให้สามารถตอบสนองผู้ใช้งาน รวมถึงความต้องการของทางธุรกิจให้ดีขึ้น.
- ศึกษาทำความเข้าใจระบบต่างๆที่ต้องนำข้อมูลมาจัดให้อยู่ในรูปแบบมาตรฐานและเก็บรวมกันเป็น Single source of truth รวมถึงศึกษาความต้องการใช้ข้อมูลของผู้บริหารในหน่วยธุรกิจ (business unit) ร่วมวางแผนโครงการ, นำเสนองบประมาณและแนวทางดำเนินงาน, นำเสนอข้อมูลทางเล ...
- ออกแบบ และพัฒนา Data Pipeline.
- ออกแบบ Data Pipeline ภายใต้การกำกับดูแลของผู้จัดการงานออกแบบและพัฒนาระบบฐานข้อมูล.
- กำกับดูแล Data Architecture และพัฒนา Data Pipeline.
- กำกับดูแลรับข้อมูลซึ่งมีทั้งแบบ data streaming และ data batch รวมถึงนำส่งข้อมูลให้กับ BU ต่างๆ.
- กำกับดูแลการทดสอบ Data Pipeline ที่ได้ วางแผนการขึ้นระบบของซอฟต์แวร์ร่วมกับผู้ใช้.
- กำกับดูแลการจัดทำเอกสาร คู่มือ การใช้งานซอฟต์แวร์ที่ได้พัฒนาและระบบที่เกี่ยวข้อง เพื่อเป็นเอกสารอ้างอิงการใช้งาน และอ้างอิงในการพัฒนาต่อยอดของซอฟต์แวร์.
- ประสานงานกับหน่วยงานที่เกี่ยวข้องเพื่อแก้ไขปัญหา หรือพัฒนาระบบ.
- กำกับดูแล Data Architecture รวมถึงการพัฒนา Data Pipeline ของเจ้าหน้าที่การออกแบบและพัฒนาระบบ.
- หากมีประสบการณ์ Data Modeling และสามารถออกแบบ Data Architecture ได้ พัฒนาโครงสร้างข้อมูลให้สอดคล้องกับความต้องการของหน่วยธุรกิจ สามารถทำ Logical / Physical Data Model และเข้าใจหลักการจัดการข้อมูล จะพิจารณาเป็นพิเศษ.
- ปริญญาตรีสาขาคอมพิวเตอร์หรือสาขาที่เกี่ยวข้อง.
- มีประสบการณ์ทางด้าน Data Engineer/ Data Architect อย่างน้อย 3 ปี.
- มีความเข้าใจในงาน Data Engineer สามารถทำ Data Pipeline ทั้งในรูปแบบ Batch และ Stream.
- สามารถเขียนและใช้งาน Python, ASP.net C#, MSSQL, MySql.
- สามารถเขียนและใช้งาน Golang, Kafka, Debezium CDC, Apache Airflow, Apache Spark, MongoDB (ถ้ามี).
- มีทักษะการใช้งาน Database.
- มีทักษะในการใช้ SQL.
- มีทักษะในการใช้ Pivot Table.
- มีทักษะในการทำ Performance Tuning ของระบบฐานข้อมูล.
- มีทักษะ Critical thinking and Problem solving.
- ติดต่อสอบถาม.
- สำนักทรัพยากรบุคคล.
- บริษัท ไทยเบฟเวอเรจ จำกัด (มหาชน).
- อาคารเล้าเป้งง้วน 1 333 ถนน วิภาวดีรังสิต จอมพล เขตจตุจักร กรุงเทพมหานคร 10900.
- 1