色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

五個簡單步驟掌握TensorFlow中的Tensor

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2020-12-24 14:35 ? 次閱讀

在這篇文章中,我們將深入研究Tensorflow Tensor的實現細節。我們將在以下五個簡單步驟中介紹與Tensorflow的Tensor中相關的所有主題:第一步:張量的定義→什么是張量?第二步:創建張量→創建張量對象的函數第三步:張量對象的特征第四步:張量操作→索引、基本張量操作、形狀操作、廣播第五步:特殊張量張量的定義:什么是張量?

張量是TensorFlow的均勻型多維數組,它非常類似于NumPy數組,并且是不可變的,這意味著一旦創建它們就不能被更改。首先,要使用TensorFlow對象,我們需要導入TensorFlow庫,因為我們經常將NumPy與TensorFlow一起使用,因此我們也可以導入NumPy:import tensorflow as tf

import numpy as np

張量的創建:創建張量對象有多種方法可以創建tf.Tensor對象,同時也可以使用多個TensorFlow函數來創建張量對象,如下例所示:# 你可以用`tf.constant`函數創建tf.Tensor對象:
x = tf.constant([[1, 2, 3, 4 ,5]])
# 你可以用`tf.ones`函數創建tf.Tensor對象:
y = tf.ones((1,5))
# 你可以用`tf.zeros`函數創建tf.Tensor對象:
z = tf.zeros((1,5))
# 你可以用`tf.range`函數創建tf.Tensor對象:
q = tf.range(start=1, limit=6, delta=1)
print(x)
print(y)
print(z)
print(q)
輸出:
tf.Tensor([[1 2 3 4 5]], shape=(1, 5), dtype=int32)
tf.Tensor([[1. 1. 1. 1. 1.]], shape=(1, 5), dtype=float32)
tf.Tensor([[0. 0. 0. 0. 0.]], shape=(1, 5), dtype=float32)
tf.Tensor([1 2 3 4 5], shape=(5,), dtype=int32)

如你所見,我們使用三個不同的函數創建了形狀(1,5)的張量對象,使用tf.range()函數創建了形狀(5,)的第四個張量對象。注意,tf.ones的和tf.zeros接受形狀作為必需的參數,因為它們的元素值是預先確定的。張量對象的特征tf.Tensor創建對象有幾個特征。首先,他們有維度數量;其次,它們有一個形狀,一個由維度的長度組成的列表;所有張量都有一個大小,即張量中元素的總數;最后,它們的元素都被記錄在一個統一的數據類型(datatype)中。讓我們仔細看看這些特征。維度張量根據其維數進行分類:Rank-0(標量)張量:包含單個值且沒有軸的張量(0維);Rank-1張量:包含單軸(一維)值列表的張量;Rank-2張量:包含2個軸(2維)的張量;以及Rank-N張量:包含N軸的張量(三維)。

例如,我們可以通過向tf.constant傳遞一個三層嵌套的list對象來創建一個Rank-3張量。我們可以將數字分割成一個3層嵌套的列表,每個層有3個元素:three_level_nested_list = [[[0, 1, 2],
[3, 4, 5]],
[[6, 7, 8],
[9, 10, 11]] ]
rank_3_tensor = tf.constant(three_level_nested_list)
print(rank_3_tensor)
Output:
tf.Tensor( [[[ 0 1 2]
[ 3 4 5]]

[[ 6 7 8]
[ 9 10 11]]],
shape=(2, 2, 3), dtype=int32)

我們可以查看“rank_3_tensor”對象當前具有“.ndim”屬性的維度數。tensor_ndim = rank_3_tensor.ndim
print("The number of dimensions in our Tensor object is", tensor_ndim)
Output:
The number of dimensions in our Tensor object is 3

形狀形狀特征是每個張量都具有的另一個屬性,它以列表的形式顯示每個維度的大小。我們可以查看使用.shape屬性創建的rank_3_tensor對象的形狀,如下所示:tensor_shape = rank_3_tensor.shape
print("The shape of our Tensor object is", tensor_shape)
Output:
The shape of our Tensor object is (2, 2, 3

如你所見,我們的張量在第一層有兩個元素,第二層有兩個元素,第三層有三個元素。大小大小是張量的另一個特征,它表示張量有多少個元素。我們不能用張量對象的屬性來測量大小,相反,我們需要使用tf.size函數。最后,我們將使用實例函數.NumPy()將輸出轉換為NumPy,以獲得更具可讀性的結果:tensor_size = tf.size(rank_3_tensor).numpy()
print("The size of our Tensor object is", tensor_size)
Output:
The size of our Tensor object is 12

數據類型張量通常包含數字數據類型,如浮點和整數,但也可能包含許多其他數據類型,如復數和字符串。但是,每個張量對象必須將其所有元素存儲在一個統一的數據類型中,因此,我們還可以使用.dtype屬性查看為特定張量對象選擇的數據類型,如下所示:tensor_dtype = rank_3_tensor.dtype
print("The data type selected for this Tensor object is", tensor_dtype)
Output:
The data type selected for this Tensor object is <dtype: 'int32'>

張量運算索引索引是項目在序列中位置的數字表示,這個序列可以引用很多東西:一個列表、一個字符串或任意的值序列。TensorFlow還遵循標準的Python索引規則,這類似于列表索引或NumPy數組索引。關于索引的一些規則:索引從零(0)開始。負索引(“-n”)值表示從末尾向后計數。冒號(“:”)用于切片。逗號(“,”)用于進入更深的維度。讓我們用以下幾行創建rank_1_tensor:single_level_nested_list = [0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11]
rank_1_tensor = tf.constant(single_level_nested_list)
print(rank_1_tensor)
Output:
tf.Tensor([ 0 1 2 3 4 5 6 7 8 9 10 11],
shape=(12,), dtype=int32)

測試一下我們的規則1,2,3:# 規則1,索引從0開始
print("First element is:",
rank_1_tensor[0].numpy())
# 規則2,負索引
print("Last element is:",
rank_1_tensor[-1].numpy())
# 規則3,切片
print("Elements in between the 1st and the last are:",
rank_1_tensor[1:-1].numpy())
Output:
First element is: 0
Last element is: 11
Elements in between the 1st and the last are: [ 1 2 3 4 5 6 7 8 9 10]

現在,讓我們用以下代碼創建rank_2_tensor:two_level_nested_list = [ [0, 1, 2, 3, 4, 5], [6, 7, 8, 9, 10, 11] ]
rank_2_tensor = tf.constant(two_level_nested_list)
print(rank_2_tensor)
Output:
tf.Tensor( [[ 0 1 2 3 4 5]
[ 6 7 8 9 10 11]], shape=(2, 6), dtype=int32)

用幾個例子來測試第4條規則:print("The 1st element of the first level is:",
rank_2_tensor[0].numpy())
print("The 2nd element of the first level is:",
rank_2_tensor[1].numpy())
# 規則4, 逗號用于進入更深的維度
print("The 1st element of the second level is:",
rank_2_tensor[0, 0].numpy())
print("The 3rd element of the second level is:",
rank_2_tensor[0, 2].numpy())
Output:
The first element of the first level is: [0 1 2 3 4 5]
The second element of the first level is: [ 6 7 8 9 10 11]
The first element of the second level is: 0
The third element of the second level is: 2

現在,我們已經介紹了索引的基本知識,讓我們看看我們可以對張量進行的基本操作。張量基本運算你可以輕松地對張量進行基本的數學運算,例如:加法元素乘法矩陣乘法求最大值或最小值找到Max元素的索引計算Softmax值讓我們看看這些運算,我們將創建兩個張量對象并應用這些操作。a = tf.constant([[2, 4],
[6, 8]], dtype=tf.float32)
b = tf.constant([[1, 3],
[5, 7]], dtype=tf.float32)

我們可以從加法開始。# 我們可以使用' tf.add() '函數并將張量作為參數傳遞。
add_tensors = tf.add(a,b)
print(add_tensors)
Output:
tf.Tensor( [[ 3. 7.]
[11. 15.]], shape=(2, 2), dtype=float32)

乘法# 我們可以使用' tf.multiply() '函數并將張量作為參數傳遞。
multiply_tensors = tf.multiply(a,b)
print(multiply_tensors)
Output:
tf.Tensor( [[ 2. 12.]
[30. 56.]], shape=(2, 2), dtype=float32)
矩陣乘法:# 我們可以使用' tf.matmul() '函數并將張量作為參數傳遞。
matmul_tensors = tf.matmul(a,b)
print(matmul_tensors)
Output:
tf.Tensor( [[ 2. 12.]
[30. 56.]], shape=(2, 2), dtype=float32)

注意:Matmul操作是深度學習算法的核心,因此,盡管你不會直接使用matmul,但了解這些操作是至關重要的。我們上面列出的其他操作示例:# 使用' tf.reduce_max() '和' tf.reduce_min() '函數可以找到最大值或最小值
print("The Max value of the tensor object b is:",
tf.reduce_max(b).numpy())

# 使用' tf.argmax() '函數可以找到最大元素的索引
print("The index position of the max element of the tensor object b is:",
tf.argmax(b).numpy())

# 使用 tf.nn.softmax'函數計算softmax
print("The softmax computation result of the tensor object b is:",
tf.nn.softmax(b).numpy())
Output:
The Max value of the tensor object b is: 1.0
The index position of the Max of the tensor object b is: [1 1]
The softmax computation result of the tensor object b is: [[0.11920291 0.880797 ] [0.11920291 0.880797 ]]

操縱形狀就像在NumPy數組和pandas數據幀中一樣,你也可以重塑張量對象。這個變形操作非常快,因為底層數據不需要復制。對于重塑操作,我們可以使用tf.reshape函數# 我們的初始張量
a = tf.constant([[1, 2, 3, 4, 5, 6]])
print('The shape of the initial Tensor object is:', a.shape)
b = tf.reshape(a, [6, 1])
print('The shape of the first reshaped Tensor object is:', b.shape)
c = tf.reshape(a, [3, 2])
print('The shape of the second reshaped Tensor object is:', c.shape)

# 如果我們以shape參數傳遞-1,那么張量就變平坦化。
print('The shape of the flattened Tensor object is:', tf.reshape(a, [-1]))
Output:
The shape of our initial Tensor object is: (1, 6)
The shape of our initial Tensor object is: (6, 1)
The shape of our initial Tensor object is: (3, 2)
The shape of our flattened Tensor object is: tf.Tensor([1 2 3 4 5 6], shape=(6,), dtype=int32)

如你所見,我們可以很容易地重塑我們的張量對象,但要注意的是,在進行重塑操作時,開發人員的操作必須是合理的,否則,張量可能會混淆,甚至會產生錯誤。廣播當我們嘗試使用多個張量對象進行組合操作時,較小的張量可以自動伸展以適應較大的張量,就像NumPy數組一樣。例如,當你嘗試將標量張量與秩2張量相乘時,標量將被拉伸以乘以每個秩2張量元素。參見以下示例:m = tf.constant([5])
n = tf.constant([[1,2],[3,4]])
print(tf.multiply(m, n))
Output:
tf.Tensor( [[ 5 10]
[15 20]], shape=(2, 2), dtype=int32)

由于廣播操作,在對張量進行數學運算時,我們不必擔心大小匹配。張量的特殊類型我們常常會生成矩形張量,并將數值存儲為元素,但是,TensorFlow還支持不規則或特殊的張量類型,這些類型包括:參差不齊的張量字符串張量稀疏張量

讓我們仔細看看每一個都是什么。參差不齊的張量參差不齊張量是沿著尺寸軸具有不同數量元素的張量可以構建不規則張量,如下所示ragged_list = [[1, 2, 3],[4, 5],[6]]
ragged_tensor = tf.ragged.constant(ragged_list)
print(ragged_tensor)
Output:
<tf.RaggedTensor [[1, 2, 3],
[4, 5],
[6]]>

字符串張量字符串張量是存儲字符串對象的張量。我們可以建立一個字符串張量,就像你創建一個普通的張量對象一樣,但是,我們將字符串對象作為元素而不是數字對象傳遞,如下所示:string_tensor = tf.constant(["With this",
"code, I am",
"creating a String Tensor"])
print(string_tensor)
Output:
tf.Tensor([b'With this'
b'code, I am'
b'creating a String Tensor'],
shape=(3,), dtype=string)

稀疏張量最后,稀疏張量是稀疏數據的矩形張量。當數據中有空值時,稀疏張量就是對象。創建稀疏張量有點耗時,這里有一個例子:sparse_tensor = tf.sparse.SparseTensor(indices=[[0, 0], [2, 2], [4, 4]],
values=[25, 50, 100],
dense_shape=[5, 5])

# 我們可以把稀疏張量轉換成密集張量
print(tf.sparse.to_dense(sparse_tensor))
Output:
tf.Tensor( [[ 25 0 0 0 0]
[ 0 0 0 0 0]
[ 0 0 50 0 0]
[ 0 0 0 0 0]
[ 0 0 0 0 100]], shape=(5, 5), dtype=int32)

結尾本文我們介紹了TensorFlow的張量對象的基礎知識。這應該會讓你對TensorFlow框架的基本知識了解得更多了。

審核編輯:符乾江


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 函數
    +關注

    關注

    3

    文章

    4338

    瀏覽量

    62739
  • tensorflow
    +關注

    關注

    13

    文章

    329

    瀏覽量

    60540
收藏 人收藏

    評論

    相關推薦

    TMETRIC:簡單步驟將工作區連接到時間跟蹤應用程序

    將計時器按鈕添加到組合門票 完成這三簡單步驟以在 Assembla 啟用時間跟蹤。設置時間不超過 3 分鐘。 注冊 TMetric 具有高級計費和報告功能的時間跟蹤應用程序 安裝瀏覽器擴展
    的頭像 發表于 01-07 09:23 ?63次閱讀
    TMETRIC:<b class='flag-5'>簡單步驟</b>將工作區連接到時間跟蹤應用程序

    RK3568國產處理器 + TensorFlow框架的張量創建實驗案例分享

    張量,即標量 2、一 維張量 3、二維張量 4、多維張量 在 tensorflow 張量可以被簡單的理解為多維數組。 在OpenCV,可以通過tf.constant函數實現創建基礎
    發表于 12-03 14:43

    如何解決HDMI連接電視無信號問題?簡單步輕松搞定

    在使用HDMI線將電腦連接至電視時,偶爾會遇到電視無信號的問題。雖然這類情況令人困擾,但通過以下簡單步驟,您可以快速排查并解決問題。
    的頭像 發表于 10-05 13:50 ?1585次閱讀

    改善升壓轉換器PCB布局的步驟

    電子發燒友網站提供《改善升壓轉換器PCB布局的步驟.pdf》資料免費下載
    發表于 09-04 10:22 ?0次下載
    改善升壓轉換器PCB布局的<b class='flag-5'>五</b><b class='flag-5'>個</b><b class='flag-5'>步驟</b>

    交流電轉直流電的步驟

    交流電轉直流電(AC to DC)是電力電子學的一重要領域,廣泛應用于各種電子設備和系統。本文將詳細介紹交流電轉直流電的
    的頭像 發表于 08-27 09:29 ?1778次閱讀

    示波器電流探頭最簡單步驟是什么

    具有重要意義。下面介紹示波器電流探頭的三簡單步驟步驟一:選擇合適的電流探頭 確定測量范圍 :首先,需要根據待測電路的電流大小選擇合適的電流探頭。電流探頭通常有不同的量程,如10A、100A、1000A等,選擇一
    的頭像 發表于 08-09 14:24 ?642次閱讀

    如何在Tensorflow實現反卷積

    TensorFlow實現反卷積(也稱為轉置卷積或分數步長卷積)是一涉及多個概念和步驟的過程。反卷積在深度學習領域,特別是在圖像分割、圖像超分辨率、以及生成模型(如生成對抗網絡GA
    的頭像 發表于 07-14 10:46 ?658次閱讀

    使用TensorFlow進行神經網絡模型更新

    使用TensorFlow進行神經網絡模型的更新是一涉及多個步驟的過程,包括模型定義、訓練、評估以及根據新數據或需求進行模型微調(Fine-tuning)或重新訓練。下面我將詳細闡述這個過程,并附上相應的
    的頭像 發表于 07-12 11:51 ?441次閱讀

    簡述使用波特力模型的三步驟

    企業了解行業的競爭環境,從而制定相應的競爭策略。以下是使用波特力模型的三步驟。 第一步:識別行業 在使用波特力模型之前,首先需要明確分析的行業范圍。行業的定義可以根據產品、服務、
    的頭像 發表于 07-05 14:34 ?940次閱讀

    tensorflow和pytorch哪個更簡單?

    PyTorch更簡單。選擇TensorFlow還是PyTorch取決于您的具體需求和偏好。如果您需要一易于使用、靈活且具有強大社區支持的框架,PyTorch可能是一更好的選擇。如果
    的頭像 發表于 07-05 09:45 ?905次閱讀

    tensorflow簡單的模型訓練

    在本文中,我們將詳細介紹如何使用TensorFlow進行簡單的模型訓練。TensorFlow是一開源的機器學習庫,廣泛用于各種機器學習任務,包括圖像識別、自然語言處理等。我們將從安裝
    的頭像 發表于 07-05 09:38 ?711次閱讀

    keras模型轉tensorflow session

    在這篇文章,我們將討論如何將Keras模型轉換為TensorFlow session。 Keras和TensorFlow簡介 Keras是一高級神經網絡API,它提供了一種
    的頭像 發表于 07-05 09:36 ?560次閱讀

    如何在TensorFlow構建并訓練CNN模型

    TensorFlow構建并訓練一卷積神經網絡(CNN)模型是一涉及多個步驟的過程,包括數據預處理、模型設計、編譯、訓練以及評估。下面
    的頭像 發表于 07-04 11:47 ?994次閱讀

    變頻器快慢調速最簡單步驟

    調速的三簡單步驟。 一、變頻器的基本原理 在了解變頻器快慢調速的步驟之前,我們首先需要了解變頻器的基本原理。變頻器是一種將工頻電源轉換為可調頻率電源的電氣設備,通過改變輸出頻率的大小,實現對電動機轉速的控
    的頭像 發表于 06-17 15:17 ?2338次閱讀

    研控8線步進電機最簡單步驟

    步進電機是一種將電脈沖信號轉換為機械角位移的電機,廣泛應用于各種自動化設備和機器人中。研控8線步進電機是一種常見的步進電機類型,具有較高的精度和穩定性。本文將詳細介紹研控8線步進電機的三簡單步驟
    的頭像 發表于 06-12 09:16 ?1293次閱讀
    主站蜘蛛池模板: 日本亚洲电影| 国产不卡在线观看视频| 天津相声广播在线收听| 亚洲色欲国产AV精品综合| qq快播电影网| 囯产精品久久久久免费蜜桃| 久久99蜜桃精品麻豆| 三级全黄a| 亚洲国产精品无码AV久久久| 野花4在线观看| 国产AV精品久久久免费看| 美国VICTORY DAY在线| 欧美精品AV精品一区视频| 色欲AV蜜臀AV在线观看麻豆| 亚洲福利视频导航| 成年人在线免费观看视频网站| 国产精品伦一区二区三级视频 | 福利免费观看体检区| 久久这里只精品热在线99| 日韩高清一区二区三区不卡| 亚洲国产精品第一影院在线观看| 爱啪国产精品视频在线| 榴莲推广APP网站入口官网| 日韩精品欧美在线视频在线| 2021乱码精品公司| 国产1广场舞丰满老女偷| 免费99精品国产人妻自在线| 色悠久久综合| gogogo高清在线观看| 国产永久免费观看视频软件| 绿巨人www在线观看| 亚洲色图影院| 国产欧美第一页| 涩涩网站在线看| 扒开美女嫩bbb| 欧美videqsdesex0| 67194免费入口| 老人FREE VIODES老少配| 亚洲视频精品在线观看| 国产在线一卡二卡| 新新电影理论中文字幕|