运行时(runtime)到底什么意思,应该怎么理解,能举例吗?
如果一定要打个比方的话,你可以把工作中比喻成运行时,编译期就好比你对工作的准备时间。那么运行时从时间上来说就是你开始工作到下班为止,在工作中有一些特定的行为,比如使用公司的电脑,向上司汇报工作,为新手指点迷津等
如果一定要打个比方的话,你可以把工作中比喻成运行时,编译期就好比你对工作的准备时间。那么运行时从时间上来说就是你开始工作到下班为止,在工作中有一些特定的行为,比如使用公司的电脑,向上司汇报工作,为新手指点迷津等
參與計畫的東條有伸教授表示藉由這起病例,說明「人工智慧在醫療領域具有無窮的潛力,未來能對診斷和治療提供巨大幫助。」這種機器學習使用方法,事實上就是大數據的進化版,只是不再用人工自己去找關聯性,而是由機器代替人類閱讀、分析。事實上 Watson 已廣泛運用在 商務 、金融、 法律 以及 資安 等許多領域上,搭配它強大的自然語言與系統溝通能力,將能有效透過機器學習協助人類做出更快、更好的決策。 -- 人工智慧真能救人一命!IBM Watson 在日本找出罕見白血病,助患者渡難關 Inside在第4戰 AlphaGO 輸給了李世石。但是在那晚,它進入了精神時光屋,與自己多對弈了100萬盤棋,隔天再度面對李世石的時候,又提升了一個檔次,順利在第5戰拿下勝利[]
第一是深度学习在这几年才刚刚发展起来的原因是规模化。
我喜欢做一个类比,建立人工智能就像是建立一个火箭一样,到底什么叫做火箭,你要造一个火箭首先需要一个大的引擎,然后需要很多的火箭燃料,这两个都是非常大。如果引擎非常大,但是燃料非常少,这个火箭也飞不了多远。如果说引擎非常小,燃料非常多,有可能火箭根本就无法起飞。
只有引擎非常大燃料非常多的时候才能建造一个非常好的火箭。神经网络就像火箭的引擎,现在我们能够建立这样的神经网络,是因为现在规模化,是因为GPU的发展。而前面提到的火箭燃料就是今天大量的互联网公司获得的数据。
--- 百度吴恩达:怎样用GPU来造人工智能“火箭” | GTC China 2016
$ ssh -X <ip address>
$ source <install_dir>/vtune_amplifier_2017/amplxe-vars.sh
$ amplxe-gui&
export VTUNE_AMPLIFIER_XE_2017_DIR=/opt/intel/vtune_amplifier_xe_2017.1.0.486011
PATH="/opt/intel/vtune_amplifier_xe_2017.1.0.486011/bin64:$PATH";export PATH
amplxe-gui&
/usr/bin/python
/home/username/tensorflow-models/inception/bazel-bin/inception/flowers_train
--train_dir=/home/username/flowerData/data/flowers/train --data_dir=/home/username/flowerData/data/flowers/data --pretrained_model_checkpoint_path=/home/username/inception-v3/model.ckpt-157585 --fine_tune=True --initial_learning_rate=0.001 -input_queue_memory_factor=1 --max_steps=500 --num_gpus 1 --batch_size=1
/usr/bin/python
home/paslab/yihong/benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --local_parameter_device=cpu --num_gpus=2 \
--batch_size=32 --model=resnet50 --variable_update=parameter_server --use_nccl=False
由於在Linux的環境下,圖形介面是以X Server為基礎來進行顯示的,所以當我們以一般command-line模式連入時將會無法看到圖形介面,需要另外在本機啟動X Server,讓主機能將圖形介面送過來。 而X11的資料傳輸是採明碼傳輸的方式,因此比較沒那麼安全,透過SSH進行X11 forwarding的主要目的就是將主機要送過來的圖形介面加密後,透過SSH這通訊協定加密再傳到使用者端並顯示在使用者端的 X Server上,以達到保護資料的作用(這也稱為SSH Tunneling) --- SSH X11 Forwarding[2] 鳥哥的linux私房菜 - 直接將指令丟到背景中『執行』的 &
x = tf.placeholder("float", 3)
x = tf.placeholder("float", None)
terminator
# Ubuntu/Linux 64-bit, GPU enabled, Python 2.7 # Requires CUDA toolkit 8.0 and CuDNN v5. For other versions, see "Install from sources" below.
$ export TF_BINARY_URL=https://storage.googleapis.com/tensorflow/linux/gpu/tensorflow-0.11.0-cp27-none-linux_x86_64.whl
Installation Instructions:
Run `sudo sh cuda_8.0.44_linux.run`
Follow the command-line prompts
sudo cp cuda/include/cudnn.h /usr/local/cuda/include
sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64
sudo chmod a+r /usr/local/cuda/include/cudnn.h /usr/local/cuda/lib64/libcudnn*
source .bashrc