[NetsPresso] AI Software Engineer
직군
R&D
경력사항
경력 2년 이상
고용형태
정규직
근무지
Nota서울특별시 강남구 테헤란로 521, 파르나스타워 16층 Nota

👋 우리 ​팀을 ​소개합니다.

XPU ​Enabler 팀은 ​AI 모델이 다양한 기기에서 ​원활하게 ​작동할 수 ​있도록 지원하는 역할을 ​담당합니다. 새로운 ​AI ​모델이나 디바이스가 ​등장할 ​때, ​호환성 문제를 해결하고 ​성능을 ​자동으로 측정하는 서비스를 ​개발하여 ​모델과 ​디바이스 간의 연결을 ​매끄럽게 이어줍니다. ​ML ​Engineer, Embedded ​Engineer, Software ​Engineer(Backend/Frontend/Mobile), ​AI Software Engineer ​등 다양한 ​직무의 전문가들이 모여 긴밀하게 협업하고 있으며, 각자의 전문성을 바탕으로 기술적 난제를 함께 해결해 나가고 있습니다.



📌 해당 포지션으로 합류하신다면

최신 NPU 제조사 및 NPU 상에서 AI 모델을 최적화하려는 고객사와 협력해 다양한 기술 과제를 수행하게 됩니다. 주로 LLM 및 유사 모델을 중심으로 정적 그래프화, 최적화, 양자화, 디바이스 프로파일링 등의 핵심 기술을 체계적으로 익힐 수 있습니다. 이를 통해 NPU별 최적화 방식에 대한 깊이 있는 이해를 쌓고, 실제 디바이스에 모델을 성공적으로 포팅하는 실전 경험을 통해 AI 엔지니어로서의 전문성을 키워갈 수 있습니다.




✅ 주요 업무

  • NPU에 최적화된 LLM 모델의 엣지 디바이스에서의 정확도/메모리/지연시간 프로파일링 및 모델을 구동하는 파이프라인 개발



✅ 자격요건

  • 아래 자격요건 관련한 분야에서 2년 이상의 경력이 있으신 분
  • NPU에서 AI 모델을 가속화한 경험이 있으신 분
  • 엣지 디바이스에서 AI 모델의 추론을 포함한 어플리케이션을 C++로 개발한 경험이 있으신 분
  • LLM 모델의 입출력, 캐싱, 디코딩 알고리즘을 이해하고 있으신 분
  • 해외 여행에 결격사유가 없는 분



✅ 우대사항

  • LLM에 대한 양자화를 이해하고 실제 구현 및 수행해 본 경험이 있는분
  • 다양한 AI 모델을 수정하여 정적 그래프 형태(jit, onnx)로 추출가능하도록 해본 경험이 다수 있으신 분
  • Executorch을 활용하여 모델 quantization/compile/inference에 대한 경험이 있는 분



✅ 채용 절차

  • 서류 검토 → 스크리닝 인터뷰 → 과제 -> 1차 인터뷰 → 2차 인터뷰




🤓 팀의 메세지

XPU Enabler 팀은 AI 모델 개발부터 실제 디바이스 적용까지, AI 솔루션의 끝단까지 책임지는 팀입니다. 특정 프레임워크나 기기에 국한되지 않고, 다양한 AI 모델과 NPU 환경을 넘나들며 문제를 정의하고 해결하는 유연함과 도전 정신이 우리 팀의 강점입니다.
우리는 각자의 전문성을 살리면서도 서로의 영역을 존중하고 배우며 함께 성장하는 팀 문화를 중요하게 생각합니다. 새로운 기술을 탐구하는 것을 즐기고, 낯선 문제 앞에서도 흥미를 느끼는 분이라면 XPU Enabler 팀과 잘 맞으실 거예요.



지원 전, 확인해주세요! 👀

  • 해당 공고는 상시 채용으로, 채용 완료 시 조기 마감될 수 있습니다.
  • 이력서에 민감한 개인 정보가 포함되지 않도록 확인 부탁드립니다.
  • 제출해 주신 내용 중 허위 사실이 있을 경우 채용이 취소될 수 있습니다.
  • 채용 전 레퍼런스 체크가 있음을 알려드립니다.
  • 최종 인터뷰 합격 시 별도로 처우를 협의합니다.
  • 입사 후 시용기간이 있으며, 이에 대한 처우는 차등을 두지 않음을 알려드립니다.
  • 국가보훈대상자 및 장애인은 관련 법규에 의거하여 우대합니다.
  • R&D 모든 포지션에서 전문연구요원 (신규 편입, 전직) 가능합니다.



🔎 읽어보면 도움 되는 관련 자료


공유하기
[NetsPresso] AI Software Engineer

👋 우리 ​팀을 ​소개합니다.

XPU ​Enabler 팀은 ​AI 모델이 다양한 기기에서 ​원활하게 ​작동할 수 ​있도록 지원하는 역할을 ​담당합니다. 새로운 ​AI ​모델이나 디바이스가 ​등장할 ​때, ​호환성 문제를 해결하고 ​성능을 ​자동으로 측정하는 서비스를 ​개발하여 ​모델과 ​디바이스 간의 연결을 ​매끄럽게 이어줍니다. ​ML ​Engineer, Embedded ​Engineer, Software ​Engineer(Backend/Frontend/Mobile), ​AI Software Engineer ​등 다양한 ​직무의 전문가들이 모여 긴밀하게 협업하고 있으며, 각자의 전문성을 바탕으로 기술적 난제를 함께 해결해 나가고 있습니다.



📌 해당 포지션으로 합류하신다면

최신 NPU 제조사 및 NPU 상에서 AI 모델을 최적화하려는 고객사와 협력해 다양한 기술 과제를 수행하게 됩니다. 주로 LLM 및 유사 모델을 중심으로 정적 그래프화, 최적화, 양자화, 디바이스 프로파일링 등의 핵심 기술을 체계적으로 익힐 수 있습니다. 이를 통해 NPU별 최적화 방식에 대한 깊이 있는 이해를 쌓고, 실제 디바이스에 모델을 성공적으로 포팅하는 실전 경험을 통해 AI 엔지니어로서의 전문성을 키워갈 수 있습니다.




✅ 주요 업무

  • NPU에 최적화된 LLM 모델의 엣지 디바이스에서의 정확도/메모리/지연시간 프로파일링 및 모델을 구동하는 파이프라인 개발



✅ 자격요건

  • 아래 자격요건 관련한 분야에서 2년 이상의 경력이 있으신 분
  • NPU에서 AI 모델을 가속화한 경험이 있으신 분
  • 엣지 디바이스에서 AI 모델의 추론을 포함한 어플리케이션을 C++로 개발한 경험이 있으신 분
  • LLM 모델의 입출력, 캐싱, 디코딩 알고리즘을 이해하고 있으신 분
  • 해외 여행에 결격사유가 없는 분



✅ 우대사항

  • LLM에 대한 양자화를 이해하고 실제 구현 및 수행해 본 경험이 있는분
  • 다양한 AI 모델을 수정하여 정적 그래프 형태(jit, onnx)로 추출가능하도록 해본 경험이 다수 있으신 분
  • Executorch을 활용하여 모델 quantization/compile/inference에 대한 경험이 있는 분



✅ 채용 절차

  • 서류 검토 → 스크리닝 인터뷰 → 과제 -> 1차 인터뷰 → 2차 인터뷰




🤓 팀의 메세지

XPU Enabler 팀은 AI 모델 개발부터 실제 디바이스 적용까지, AI 솔루션의 끝단까지 책임지는 팀입니다. 특정 프레임워크나 기기에 국한되지 않고, 다양한 AI 모델과 NPU 환경을 넘나들며 문제를 정의하고 해결하는 유연함과 도전 정신이 우리 팀의 강점입니다.
우리는 각자의 전문성을 살리면서도 서로의 영역을 존중하고 배우며 함께 성장하는 팀 문화를 중요하게 생각합니다. 새로운 기술을 탐구하는 것을 즐기고, 낯선 문제 앞에서도 흥미를 느끼는 분이라면 XPU Enabler 팀과 잘 맞으실 거예요.



지원 전, 확인해주세요! 👀

  • 해당 공고는 상시 채용으로, 채용 완료 시 조기 마감될 수 있습니다.
  • 이력서에 민감한 개인 정보가 포함되지 않도록 확인 부탁드립니다.
  • 제출해 주신 내용 중 허위 사실이 있을 경우 채용이 취소될 수 있습니다.
  • 채용 전 레퍼런스 체크가 있음을 알려드립니다.
  • 최종 인터뷰 합격 시 별도로 처우를 협의합니다.
  • 입사 후 시용기간이 있으며, 이에 대한 처우는 차등을 두지 않음을 알려드립니다.
  • 국가보훈대상자 및 장애인은 관련 법규에 의거하여 우대합니다.
  • R&D 모든 포지션에서 전문연구요원 (신규 편입, 전직) 가능합니다.



🔎 읽어보면 도움 되는 관련 자료