"기업의 AI 도입을 막는 건 성능이 아닌, 사고에 대한 두려움입니다."
테스트에서 완벽했던 AI도, 운영 환경에서는 통제 불가능합니다. 티냅스는 운영 중인 AI의 모든 발화를 실시간 검사하고, 위험 감지 시 0.2초 내 개입하는 AI 런타임 신뢰 인프라를 만듭니다.
한국정보올림피아드 대상, 금융권 CTO/CISO 출신의 CEO, Google Research·삼성전자 출신 등 업계 최고의 팀으로,
세계 최고 성능의 경량 AI Trust Layer를 공급하여 AI 에이전트 경제의 글로벌 표준 프로토콜이 되는 것을 목표로 합니다.
한국을 넘어 글로벌 표준을 만들 여정에 함께할 최고의 동료를 기다립니다.
[왜 이 역할이 지금 중요한가?]
티냅스는 일반적인 웹 서비스나 관리형 SaaS를 만드는 회사가 아닙니다.
우리는 초당 수천 건의 AI 발화가 발생하는 환경에서, 단 한 건도 놓치지 않으면서 실시간으로 개입할 수 있는 Runtime Trust Layer를 만들고 있습니다.
이 시스템은
• 0.2초 수준의 응답 제약
• AI 모델 서빙
• 실시간 탐지/차단/로깅
• 온프렘부터 클라우드까지 다양한 배포 환경
을 동시에 고려해야 합니다.
이 역할은 티냅스 제품의 실시간성, 안정성, 서빙 성능, 배포 가능성을 책임지는 핵심 역할입니다.
[왜 티냅스인가?]
• 레거시 유지보수가 아닙니다. 아직 표준이 정해지지 않은 AI runtime trust platform을 처음부터 설계합니다.
• 시스템 아키텍처, 서빙, 배포, 운영 신뢰성까지 end-to-end로 다룰 수 있습니다.
• 한국 금융권 레퍼런스와 글로벌 확장을 동시에 견디는 플랫폼을 만들게 됩니다.
• Founding 멤버로서 회사의 실시간 시스템 아키텍처를 직접 결정할 수 있습니다.
주요업무
[이 역할에서 하게 될 일]
• Runtime Trust Layer의 플랫폼/서빙 아키텍처를 설계하고 구현합니다.
• AI 모델 파이프라인과 연동되는 실시간 탐지·차단·로깅 시스템을 구축합니다.
• 0.2초 SLA를 위한 profiling, 성능 모니터링, 최적화를 주도합니다.
• 온프렘, 프라이빗 클라우드, 퍼블릭 클라우드 등 다양한 배포 환경을 지원하는 공통 플랫폼을 만듭니다.
• observability, reliability, deployment automation을 강화합니다.
• Applied AI Engineer와 협업해 경량 탐지 모델이 최적으로 서빙되는 환경을 구축합니다.
• NVIDIA NeMo/NIM, AWS 환경, enterprise runtime stack과 자연스럽게 연결될 수 있는 구조를 설계합니다.
자격요건
[이런 분을 찾고 있어요.]
• 실시간 시스템, 플랫폼, 분산 시스템, 백엔드 아키텍처 경험이 있는 분
• Python, Go, Rust, C++ 중 하나 이상을 실무 수준으로 다룰 수 있는 분
• latency-sensitive system을 설계하고 최적화해본 경험이 있는 분
• Kubernetes, Docker, observability, distributed systems에 대한 이해가 있는 분
• 성능, 안정성, 운영까지 함께 책임질 수 있는 분