[太陽花學運] 2014年3月18日 台灣人民佔領立法院行動 反對黑箱服貿

圖片
繼台灣公民記者JO1YNN在美國有線電視新聞網CNN的 iReport ( Taiwan Parliament Occupied by protesters 1st time in History )上。報導台灣「318人民佔領立法院行動」首次佔領立法院議場世界各大重要外電媒體紛紛加以報導。 Arys Chien's status update .: 【 為何學生要佔領立法院,反對黑箱服貿?】 我知道有的朋友平常沒 留意,現在一時看不太懂;我試著用另一種方式簡單說明看看。   會計偷偷抱著公司所有的資產,要去抵押借高利貸。 老闆發現了,趕緊說:「不行啊那是高利貸!」 會計:「我是為公司好!」 老闆:「那起碼告訴我,是哪家高利貸、多少錢、利息怎麼算?」 會計:「我先去借,你之後會慢慢感受到!」 老闆:「那也讓我們開個會討論吧!」 會計:「我趁你不在的時候發開會通知,你沒來,所以就算通過了。 」 老闆要攔會計、會計把自己座位鎖起來,老闆只好請人來包圍會計的 座位,並且設法強行進入;進入後亂翻會計抽屜,想找到公司資產。   以上。   會計 = 政府 老闆 = 台灣人民 高利貸 = 服貿 (沒錯,政府是人民雇用來辦事的職員,看薪水哪裡來的就很清楚了 ) (高利貸不是不能借,只是不能這樣搞啊......)  ( 來源: 我是台灣人粉絲團  )

Setup Intel OpenVINO and AWS Greengrass on Ubuntu

Setup Intel OpenVINO and AWS Greengrass on Ubuntu 
  1. First set the conversion tool ModelOptimizer: https://software.intel.com/en-us/articles/OpenVINO-ModelOptimizer
  2. Command : `source /bin/setupvars.sh`
  3. Command : `cd /deployment_tools/model_optimizer/install_prerequisites`
  4. Command : `sudo -E ./install_prerequisites.sh`
  5. Model Optimizer uses Python 3.5, whereas Greengrass samples use Python 2.7. In order for Model Optimizer not to influence the global Python configuration, activate a virtual environment as below:
  6. Command : `sudo ./install_prerequisites.sh venv`
  7. Command : `cd /deployment_tools/model_optimizer`
  8. Command : `source venv/bin/activate`
  9. For CPU, models should be converted with data type FP32 and for GPU/FPGA, it should be with data type FP16 for the best performance.
  10. For classification using BVLC Alexnet model:
    Command : `python mo.py --framework caffe --input_model /bvlc_alexnet.caffemodel --input_proto /deploy.prototxt --data_type --output_dir --input_shape [1,3,227,227]`
  11. For object detection using SqueezeNetSSD-5Class model:
    Command : `python mo.py --framework caffe --input_model /SqueezeNetSSD-5Class.caffemodel --input_proto /SqueezeNetSSD-5Class.prototxt --data_type --output_dir `
  12. where is the location where the user downloaded the models, is FP32 or FP16 depending on target device, and is the directory where the user wants to store the IR. IR contains .xml format corresponding to the network structure and .bin format corresponding to weights. This .xml should be passed to mentioned in the Configuring the Lambda Function section. In the BVLC Alexnet model, the prototxt defines the input shape with batch size 10 by default. In order to use any other batch size, the entire input shape needs to be provided as an argument to the model optimizer. For example, if you want to use batch size 1, you can provide --input_shape [1,3,227,227].
Greengrass sample is in : 
/opt/intel/computer_vision_sdk/inference_engine/samples/python_samples/greengrass_samples/

However, there are some changes in the openvino_toolkit_p_2018.3.343 version of the path that need to be modified (python2):

LD_LIBRARY_PATH : 
/opt/intel/computer_vision_sdk/opencv/share/OpenCV/3rdparty/lib:/opt/intel/computer_vision_sdk/opencv/lib:/opt/intel/opencl:/opt/intel/computer_vision_sdk/deployment_tools/inference_engine/external/cldnn/lib:/opt/intel/computer_vision_sdk/deployment_tools/inference_engine/external/mkltiny_lnx/lib:/opt/intel/computer_vision_sdk/deployment_tools/inference_engine/lib/ubuntu_16.04/intel64:/opt/intel/computer_vision_sdk/deployment_tools/model_optimizer/model_optimizer_caffe/bin:/opt/intel/computer_vision_sdk/openvx/lib

PYTHONPATH : 

/opt/intel/computer_vision_sdk/python/python2.7/ubuntu16/

PARAM_CPU_EXTENSION_PATH : 

/opt/intel/computer_vision_sdk/deployment_tools/inference_engine/lib/ubuntu_16.04/intel64/libcpu_extension_avx2.so

留言

本月熱門文章

網路創業大不易 ? 真的要親自體會才知道!

推薦韓劇 機智的醫生生活 充滿友情的五人組 Mido and Falasol

新北市線上都更說明會,一起來改善現在的居住環境

模里西斯六日行程推薦 來規劃南半球海島行吧!!

Bonbons Studio 胖胖瑪德蓮 中秋禮盒開箱

來看一下2011年數位時代選的三十強官方網站

11/26 星期六早上八點就可以投票啦

20221018 詹智堯1000場出賽 賽後引退 將繼續以富邦悍將外野守備教練身分在中華職棒奮鬥

指揮中心自10月13日起調整自主防疫期間醫療防疫措施

佳繽旅行社 模里西斯+香港 10天7夜 真是難得的體驗