[NetsPresso] Senior Edge AI Engineer
직군
R&D
경력사항
경력 5년 이상
고용형태
정규직
근무지
Nota대한민국 서울특별시 강남구 테헤란로 521, 파르나스타워 16층 Nota

👋 우리 ​팀을 ​소개합니다.

우리 ​팀은 다양한 ​NPU/GPU/AI 가속기 환경에서 LLM·Computer ​Vision ​모델이 안정적으로 ​동작하도록 모델 변환 ​→ Graph ​최적화 ​→ Vendor ​Compiler ​→ ​Device Runtime 구성 ​→ ​배포까지 전체 생명주기를 ​설계하는 ​역할을 ​수행합니다.

하드웨어 제조사가 제공하지 ​않는 부분(Front/Middle-End ​최적화, ​Graph Surgery, ​연산자 수정 ​등)을 ​독자적으로 해결하여 어떤 ​모델이든 어떤 ​디바이스 환경에서도 동작 가능하게 만드는 것이 우리의 핵심 미션입니다.



📌 해당 포지션으로 합류하신다면

이 포지션은 최신 AI 모델을 실제 디바이스에서 정확하고 빠르게 동작하도록 만드는 핵심 역할입니다. PyTorch 기반의 동적 모델을 ONNX 중심의 정적 그래프로 변환·최적화하고, 이를 다양한 하드웨어 환경에 맞게 컴파일·배포하는 End-to-End 모델 실현 과정을 직접 설계하고 구현합니다.

모델 구조 분석부터 그래프 레벨 최적화, 벤더별 컴파일러 대응, 디바이스 성능 튜닝까지, 단순 변환을 넘어 “이 모델이 이 디바이스에서 왜, 어떻게, 얼마나 잘 동작하는가”를 책임지는 역할입니다.

또한, 좋은 사람들과 함께 협업하며 복잡한 하드웨어·소프트웨어 경계를 넘나드는 문제를 풀고, Any AI on Any Device라는 비전을 현실로 만들어 가는 여정에 함께하게 됩니다.



✅ 주요 업무

1) 모델 변환/최적화 파이프라인

  • Torch → ONNX 변환 구조 분석 및 dynamic → static 정적화
  • 연산자 호환성 분석 및 unsupported ops 수정/대체
  • quantization-friendly 구조 설계 및 메모리/latency 최적화
  • Front/Middle-End Graph Rewriting 전략 수립 및 직접 구현

2) 디바이스 기반 컴파일 & 배포

  • 다양한 벤더 compiler(TensorRT, QNN, SNPE, eIQ 등)를 활용한 모델 컴파일
  • Jetson/DeepX/Telechips/Renesas 등 디바이스의 runtime 환경 구성 및 디버깅
  • 디바이스별 Dtype/shape/메모리 제약 대응 및 성능 프로파일링

3) 모델 품질·성능 관리

  • Transformer/Diffusion 등 최신 모델 구조 깊은 이해
  • 변환 전/후 품질 비교 및 품질 저하 원인 분석
  • latency·메모리·정확도 목표 기준 수립 및 성능 보장

4) 문제 정의 & 프로젝트 전략 수립

  • 고객사 요구 기반 문제 정의, 목표 설정, 성공 기준 설계
  • 기간 내 가능한 전략 수립 및 주요 리스크 예측/차단
  • 복잡하고 모호한 문제를 구조화하여 명확히 소통

5) 문서화·제안서·리딩

  • 정부/기업 과제 제안서 작성
  • 기술 문서/보고서 작성 및 기술적 의사결정 기록
  • 주니어/미들 레벨 멘토링



✅ 자격요건

  • ONNX 기반 모델 변환/최적화/디버깅 경험
  • 다양한 하드웨어(NPU/GPU/ASIC) inference pipeline 경험
  • Model Graph 이해력 및 front/middle-end 수준의 graph surgery
  • Transformer·Diffusion 아키텍처 이해
  • 자동화 파이프라인 구축 경험
  • 명확한 소통능력
  • 전체 플로우를 빠르게 이해·리딩하며 기술적 방향성을 제시할 수 있는 역량



✅ 우대사항

  • 벤더 compiler 복수 경험
  • MLOps 또는 LLM Serving 스택 경험
  • 기술 제안·프로젝트 리딩 경험
  • 다수 고객사 대응 경험
  • 최우수 AI 학회 논문 게재 경험



✅ 채용 절차

  • 서류 검토 → 1차 인터뷰 → 2차 인터뷰 → 3차 인터뷰 → 처우 협의 → 최종 선발
  • (절차 간에 추가적인 과제가 있을 수 있습니다.)




🤓 팀의 메세지

우리 팀은 다양한 NPU, GPU, AI 가속기 환경에서 LLM과 Computer Vision 모델이 안정적으로 동작하도록모델 변환부터 그래프 최적화, 벤더 컴파일러 연동, 디바이스 런타임 구성, 배포까지 모델의 전체 생명주기를 설계하고 구현하는 역할을 맡고 있습니다. 하드웨어 제조사가 제공하지 않는 영역, 예를 들면 Front 및 Middle End 최적화, Graph Surgery, 연산자 수정과 같은 부분을 독자적으로 해결하며 어떤 모델이든, 어떤 디바이스 환경에서도 동작 가능하게 만드는 것이 팀의 핵심 미션입니다.



지원 전, 확인해주세요! 👀

  • 해당 공고는 상시 채용으로, 채용 완료 시 조기 마감될 수 있습니다.
  • 이력서 내 연봉 정보 등 민감한 개인 정보가 기재되어 있다면, 해당 서류는 검토되지 않을 수 있습니다.
  • 제출해 주신 내용 중 허위 사실이 있을 경우 채용이 취소될 수 있습니다.
  • 채용 전 레퍼런스 체크가 있음을 알려드립니다.
  • 최종 인터뷰 합격 시 별도로 처우를 협의합니다.
  • 입사 후 시용기간이 있으며, 이에 대한 처우는 차등을 두지 않음을 알려드립니다.
  • 국가보훈대상자 및 장애인은 관련 법규에 의거하여 우대합니다.
  • 장애인 고용 촉진을 위한 행정적 절차 확인이 필요한 경우, 장애인 등록증 사본을 기타 서류 란에 선택적으로 제출하실 수 있습니다. 제출 여부는 전형 평가에 어떠한 영향도 미치지 않습니다.
  • R&D 모든 포지션에서 전문연구요원, 산업기능요원으로 근무가 가능합니다. (단, 산업기능요원 현역 신규 편입의 경우 불가능)



🔎 읽어보면 도움 되는 관련 자료

공유하기
[NetsPresso] Senior Edge AI Engineer

👋 우리 ​팀을 ​소개합니다.

우리 ​팀은 다양한 ​NPU/GPU/AI 가속기 환경에서 LLM·Computer ​Vision ​모델이 안정적으로 ​동작하도록 모델 변환 ​→ Graph ​최적화 ​→ Vendor ​Compiler ​→ ​Device Runtime 구성 ​→ ​배포까지 전체 생명주기를 ​설계하는 ​역할을 ​수행합니다.

하드웨어 제조사가 제공하지 ​않는 부분(Front/Middle-End ​최적화, ​Graph Surgery, ​연산자 수정 ​등)을 ​독자적으로 해결하여 어떤 ​모델이든 어떤 ​디바이스 환경에서도 동작 가능하게 만드는 것이 우리의 핵심 미션입니다.



📌 해당 포지션으로 합류하신다면

이 포지션은 최신 AI 모델을 실제 디바이스에서 정확하고 빠르게 동작하도록 만드는 핵심 역할입니다. PyTorch 기반의 동적 모델을 ONNX 중심의 정적 그래프로 변환·최적화하고, 이를 다양한 하드웨어 환경에 맞게 컴파일·배포하는 End-to-End 모델 실현 과정을 직접 설계하고 구현합니다.

모델 구조 분석부터 그래프 레벨 최적화, 벤더별 컴파일러 대응, 디바이스 성능 튜닝까지, 단순 변환을 넘어 “이 모델이 이 디바이스에서 왜, 어떻게, 얼마나 잘 동작하는가”를 책임지는 역할입니다.

또한, 좋은 사람들과 함께 협업하며 복잡한 하드웨어·소프트웨어 경계를 넘나드는 문제를 풀고, Any AI on Any Device라는 비전을 현실로 만들어 가는 여정에 함께하게 됩니다.



✅ 주요 업무

1) 모델 변환/최적화 파이프라인

  • Torch → ONNX 변환 구조 분석 및 dynamic → static 정적화
  • 연산자 호환성 분석 및 unsupported ops 수정/대체
  • quantization-friendly 구조 설계 및 메모리/latency 최적화
  • Front/Middle-End Graph Rewriting 전략 수립 및 직접 구현

2) 디바이스 기반 컴파일 & 배포

  • 다양한 벤더 compiler(TensorRT, QNN, SNPE, eIQ 등)를 활용한 모델 컴파일
  • Jetson/DeepX/Telechips/Renesas 등 디바이스의 runtime 환경 구성 및 디버깅
  • 디바이스별 Dtype/shape/메모리 제약 대응 및 성능 프로파일링

3) 모델 품질·성능 관리

  • Transformer/Diffusion 등 최신 모델 구조 깊은 이해
  • 변환 전/후 품질 비교 및 품질 저하 원인 분석
  • latency·메모리·정확도 목표 기준 수립 및 성능 보장

4) 문제 정의 & 프로젝트 전략 수립

  • 고객사 요구 기반 문제 정의, 목표 설정, 성공 기준 설계
  • 기간 내 가능한 전략 수립 및 주요 리스크 예측/차단
  • 복잡하고 모호한 문제를 구조화하여 명확히 소통

5) 문서화·제안서·리딩

  • 정부/기업 과제 제안서 작성
  • 기술 문서/보고서 작성 및 기술적 의사결정 기록
  • 주니어/미들 레벨 멘토링



✅ 자격요건

  • ONNX 기반 모델 변환/최적화/디버깅 경험
  • 다양한 하드웨어(NPU/GPU/ASIC) inference pipeline 경험
  • Model Graph 이해력 및 front/middle-end 수준의 graph surgery
  • Transformer·Diffusion 아키텍처 이해
  • 자동화 파이프라인 구축 경험
  • 명확한 소통능력
  • 전체 플로우를 빠르게 이해·리딩하며 기술적 방향성을 제시할 수 있는 역량



✅ 우대사항

  • 벤더 compiler 복수 경험
  • MLOps 또는 LLM Serving 스택 경험
  • 기술 제안·프로젝트 리딩 경험
  • 다수 고객사 대응 경험
  • 최우수 AI 학회 논문 게재 경험



✅ 채용 절차

  • 서류 검토 → 1차 인터뷰 → 2차 인터뷰 → 3차 인터뷰 → 처우 협의 → 최종 선발
  • (절차 간에 추가적인 과제가 있을 수 있습니다.)




🤓 팀의 메세지

우리 팀은 다양한 NPU, GPU, AI 가속기 환경에서 LLM과 Computer Vision 모델이 안정적으로 동작하도록모델 변환부터 그래프 최적화, 벤더 컴파일러 연동, 디바이스 런타임 구성, 배포까지 모델의 전체 생명주기를 설계하고 구현하는 역할을 맡고 있습니다. 하드웨어 제조사가 제공하지 않는 영역, 예를 들면 Front 및 Middle End 최적화, Graph Surgery, 연산자 수정과 같은 부분을 독자적으로 해결하며 어떤 모델이든, 어떤 디바이스 환경에서도 동작 가능하게 만드는 것이 팀의 핵심 미션입니다.



지원 전, 확인해주세요! 👀

  • 해당 공고는 상시 채용으로, 채용 완료 시 조기 마감될 수 있습니다.
  • 이력서 내 연봉 정보 등 민감한 개인 정보가 기재되어 있다면, 해당 서류는 검토되지 않을 수 있습니다.
  • 제출해 주신 내용 중 허위 사실이 있을 경우 채용이 취소될 수 있습니다.
  • 채용 전 레퍼런스 체크가 있음을 알려드립니다.
  • 최종 인터뷰 합격 시 별도로 처우를 협의합니다.
  • 입사 후 시용기간이 있으며, 이에 대한 처우는 차등을 두지 않음을 알려드립니다.
  • 국가보훈대상자 및 장애인은 관련 법규에 의거하여 우대합니다.
  • 장애인 고용 촉진을 위한 행정적 절차 확인이 필요한 경우, 장애인 등록증 사본을 기타 서류 란에 선택적으로 제출하실 수 있습니다. 제출 여부는 전형 평가에 어떠한 영향도 미치지 않습니다.
  • R&D 모든 포지션에서 전문연구요원, 산업기능요원으로 근무가 가능합니다. (단, 산업기능요원 현역 신규 편입의 경우 불가능)



🔎 읽어보면 도움 되는 관련 자료