개요
Tensorflow-Serving설치 를 완료 후에 해야 한다
tensorflow serving : Inception-v3 모델로 추론하는 서버를 만들어 보자
모델 세이브 파일과 간단한 스크립트 실행으로 가능 하다
https://tensorflow.github.io/serving/
준비 : Inception-v3 모델 파일
적당한곳에 모델 파일을 저장 한다
http://download.tensorflow.org/models/image/imagenet/inception-v3-2016-03-01.tar.gz
위의 모든 파일을 적당한 곳에 압축 풀어준다
서버 : 서버 실행
tensorflow-serving 루트 폴더로 이동한다
아래의 명령어를 터미널을 열고 스크립트 실행
빨간 글씨는 위에서 받은 모델 폴더 지정
bazel-bin/tensorflow_serving/example/inception_saved_model --checkpoint_dir=/home/hwang/work/inception --output_dir=inception-export |
'archive.tar' 카테고리의 다른 글
[Ubuntu] GCE Ubuntu16 Tomcat 설치 (0) | 2017.08.07 |
---|---|
[Tensorflow] Python socket, Java Spring 을 사용한 이미지 추론 서버 (8) | 2017.07.25 |
[Tensorflow-Serving] 텐서플로우 서빙 설치 하기 (0) | 2017.06.24 |
[Ubuntu]우분투 무한 로그인 해결 여러 방법들 (1) | 2017.05.18 |
[TensorFlow] Inception v3 모델 를 이용하여 Android 에서 이미지 분류 해보기 (0) | 2017.05.15 |