《深度学习》课后习题解析(仅供参考)

(1)给定任意方矩阵 A , A+A⊤ 总是对称的吗?为什么?

由线性代数的基础知识可知, (A + AT)T = AT + (AT)T = A + AT

(2) 在2.3.4节中定义了形状(2,3,4)的张量X.len(X)的输出结果是什么?

X = torch.arange(24).reshape(2, 3, 4)
len(X)

(3) 对于任意形状的张量X,len(X)是否总是对应于X特定轴的长度?这个轴是什么?

len(X) 总对应第 0 轴的长度(可以利用代码自己实现)

(4) 在2.3.6节基础上运行A/A.sum(axis=1),看看会发生什么。你能分析原因吗?

A = torch.arange(12).reshape(3,4)
A / A.sum(axis=1)

通过照抄2.3.6节的代码可以发现运行后出现如下错误

RuntimeError: The size of tensor a (4) must match the size of tensor b (3) at non-singleton dimension 1

这是因为维度不对 A 是一个3 * 4 的矩阵,而 A.sum(axis=1) 是一个大小为 3 的向量,两者不能相除。(注:广播只能发生在两者维数相同的情况下,比如都是二维)

2. 编程绘制函数  和其在x = 1处切线的图像

x = np.arange(-10, 10, 0.01)
def f(x):
    return x ** 3 - 1 / x
plot(x, [f(x), 2* x ], 'x', 'f(x)', legend=['f(x)', 'Tangent line (x=1)'])
plt.ylim(-10,10)
plt.show() 

3. 为什么计算二阶导数比一阶导数的开销要更大?

因为二阶导数是在一阶导数的基础上再求导,所以开销肯定比计算一阶导数大

4. 给定两个概率为 P(A) 和 P(B) 的事件,计算 P(A∪B) 和 P(A∩B) 的上限和下限。(提示:使用友元图来展示这些情况。)

对于 P ( A ∪ B ) ,上限是 P(A) + P(B),下限是 max{P(A), P(B)}。

对于P ( A ∩ B),上限是 min{P(A), P(B)},下限是 0。

(画图)

《深度学习》课后习题解析(仅供参考)_第1张图片

《深度学习》课后习题解析(仅供参考)_第2张图片

你可能感兴趣的:(线性代数,深度学习)