紧急情况:矩阵的维度为零
来源:stackoverflow
时间:2024-02-28 21:18:17 263浏览 收藏
亲爱的编程学习爱好者,如果你点开了这篇文章,说明你对《紧急情况:矩阵的维度为零》很感兴趣。本篇文章就来给大家详细解析一下,主要介绍一下,希望所有认真读完的童鞋们,都有实质性的提高。
问题内容
我运行代码来训练神经网络,并收到警告,矩阵长度为零,我不知道会发生什么,因为我在神经网络的输出变量中使用该零矩阵。
package main import ( "errors" "fmt" "log" "math" "math/rand" "time" "gonum.org/v1/gonum/floats" "gonum.org/v1/gonum/mat" ) // sumAlongAxis sums a matrix along a // particular dimension, preserving the // other dimension. func sumAlongAxis(axis int, m *mat.Dense) (*mat.Dense, error) { numRows, numCols := m.Dims() var output *mat.Dense switch axis { case 0: data := make([]float64, numCols) for i := 0; i < numCols; i++ { col := mat.Col(nil, i, m) data[i] = floats.Sum(col) } output = mat.NewDense(1, numCols, data) case 1: data := make([]float64, numRows) for i := 0; i < numRows; i++ { row := mat.Row(nil, i, m) data[i] = floats.Sum(row) } output = mat.NewDense(numRows, 1, data) default: return nil, errors.New("invalid axis, must be 0 or 1") } return output, nil } // sigmoid implements the sigmoid function // for use in activation functions. func sigmoid(x float64) float64 { return 1.0 / (1.0 + math.Exp(-x)) } // sigmoidPrime implements the derivative // of the sigmoid function for backpropagation. func sigmoidPrime(x float64) float64 { return x * (1.0 - x) } // neuralNet contains all of the information // that defines a trained neural network. type neuralNet struct { config neuralNetConfig wHidden *mat.Dense bHidden *mat.Dense wOut *mat.Dense bOut *mat.Dense } // neuralNetConfig defines our neural network // architecture and learning parameters. type neuralNetConfig struct { inputNeurons int outputNeurons int hiddenNeurons int numEpochs int learningRate float64 } // NewNetwork initializes a new neural network. func newNetwork(config neuralNetConfig) *neuralNet { return &neuralNet{config: config} } // Train trains a neural network using backpropagation. func (nn *neuralNet) train(x, y *mat.Dense) error { // Initialize biases/weights. randSource := rand.NewSource(time.Now().UnixNano()) randGen := rand.New(randSource) wHiddenRaw := make([]float64, nn.config.hiddenNeurons*nn.config.inputNeurons) bHiddenRaw := make([]float64, nn.config.hiddenNeurons) wOutRaw := make([]float64, nn.config.outputNeurons*nn.config.hiddenNeurons) bOutRaw := make([]float64, nn.config.outputNeurons) for _, param := range [][]float64{wHiddenRaw, bHiddenRaw, wOutRaw, bOutRaw} { for i := range param { param[i] = randGen.Float64() } } wHidden := mat.NewDense(nn.config.inputNeurons, nn.config.hiddenNeurons, wHiddenRaw) bHidden := mat.NewDense(1, nn.config.hiddenNeurons, bHiddenRaw) wOut := mat.NewDense(nn.config.hiddenNeurons, nn.config.outputNeurons, wOutRaw) bOut := mat.NewDense(1, nn.config.outputNeurons, bOutRaw) // Define the output of the neural network. output := mat.NewDense(0, 0, nil) // Loop over the number of epochs utilizing // backpropagation to train our model. for i := 0; i < nn.config.numEpochs; i++ { // Complete the feed forward process. hiddenLayerInput := mat.NewDense(0, 0, nil) hiddenLayerInput.Mul(x, wHidden) addBHidden := func(_, col int, v float64) float64 { return v + bHidden.At(0, col) } hiddenLayerInput.Apply(addBHidden, hiddenLayerInput) hiddenLayerActivations := mat.NewDense(0, 0, nil) applySigmoid := func(_, _ int, v float64) float64 { return sigmoid(v) } hiddenLayerActivations.Apply(applySigmoid, hiddenLayerInput) outputLayerInput := mat.NewDense(0, 0, nil) outputLayerInput.Mul(hiddenLayerActivations, wOut) addBOut := func(_, col int, v float64) float64 { return v + bOut.At(0, col) } outputLayerInput.Apply(addBOut, outputLayerInput) output.Apply(applySigmoid, outputLayerInput) // Complete the backpropagation. networkError := mat.NewDense(0, 0, nil) networkError.Sub(y, output) slopeOutputLayer := mat.NewDense(0, 0, nil) applySigmoidPrime := func(_, _ int, v float64) float64 { return sigmoidPrime(v) } slopeOutputLayer.Apply(applySigmoidPrime, output) slopeHiddenLayer := mat.NewDense(0, 0, nil) slopeHiddenLayer.Apply(applySigmoidPrime, hiddenLayerActivations) dOutput := mat.NewDense(0, 0, nil) dOutput.MulElem(networkError, slopeOutputLayer) errorAtHiddenLayer := mat.NewDense(0, 0, nil) errorAtHiddenLayer.Mul(dOutput, wOut.T()) dHiddenLayer := mat.NewDense(0, 0, nil) dHiddenLayer.MulElem(errorAtHiddenLayer, slopeHiddenLayer) // Adjust the parameters. wOutAdj := mat.NewDense(0, 0, nil) wOutAdj.Mul(hiddenLayerActivations.T(), dOutput) wOutAdj.Scale(nn.config.learningRate, wOutAdj) wOut.Add(wOut, wOutAdj) bOutAdj, err := sumAlongAxis(0, dOutput) if err != nil { return err } bOutAdj.Scale(nn.config.learningRate, bOutAdj) bOut.Add(bOut, bOutAdj) wHiddenAdj := mat.NewDense(0, 0, nil) wHiddenAdj.Mul(x.T(), dHiddenLayer) wHiddenAdj.Scale(nn.config.learningRate, wHiddenAdj) wHidden.Add(wHidden, wHiddenAdj) bHiddenAdj, err := sumAlongAxis(0, dHiddenLayer) if err != nil { return err } bHiddenAdj.Scale(nn.config.learningRate, bHiddenAdj) bHidden.Add(bHidden, bHiddenAdj) } nn.wHidden = wHidden nn.bHidden = bHidden nn.wOut = wOut nn.bOut = bOut return nil } func main() { // Define our input attributes. input := mat.NewDense(3, 4, []float64{ 1.0, 0.0, 1.0, 0.0, 1.0, 0.0, 1.0, 1.0, 0.0, 1.0, 0.0, 1.0, }) // Define our labels. labels := mat.NewDense(3, 1, []float64{1.0, 1.0, 0.0}) // Define our network architecture and // learning parameters. config := neuralNetConfig{ inputNeurons: 4, outputNeurons: 1, hiddenNeurons: 3, numEpochs: 5000, learningRate: 0.3, } // Train the neural network. network := newNetwork(config) if err := network.train(input, labels); err != nil { log.Fatal(err) } // Output the weights that define our network! f := mat.Formatted(network.wHidden, mat.Prefix(" ")) fmt.Printf("\nwHidden = % v\n\n", f) f = mat.Formatted(network.bHidden, mat.Prefix(" ")) fmt.Printf("\nbHidden = % v\n\n", f) f = mat.Formatted(network.wOut, mat.Prefix(" ")) fmt.Printf("\nwOut = % v\n\n", f) f = mat.Formatted(network.bOut, mat.Prefix(" ")) fmt.Printf("\nbOut = % v\n\n", f) }
正确答案
来自 mat
软件包的 documentation:
因此,当您使用 r
和 c
零调用 mat.NewDense(0, 0, nil)
时,正如您在上面的源代码中多次执行的那样,代码会出现恐慌,正如其文档所述。没有什么意外。
终于介绍完啦!小伙伴们,这篇关于《紧急情况:矩阵的维度为零》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布Golang相关知识,快来关注吧!
声明:本文转载于:stackoverflow 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
-
502 收藏
-
502 收藏
-
501 收藏
-
501 收藏
-
501 收藏
最新阅读
更多>
-
139 收藏
-
204 收藏
-
325 收藏
-
477 收藏
-
486 收藏
-
439 收藏
-
357 收藏
-
352 收藏
-
101 收藏
-
440 收藏
-
212 收藏
-
143 收藏
课程推荐
更多>
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 508次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 484次学习