TensorFlow自学:当你从小白开始自己搭建一个神经网络

文章推薦指數: 80 %
投票人數:10人

一. 前文Hello TensorFlow!TensorFlow,文章目录一. 前文前言一、pandas是什么?二、使用步骤1.引入库2.读入数据总结前言提示:这里可以添加本文要 ... TensorFlow自学:当你从小白开始自己搭建一个神经网络 才疏学浅的莫笑天 于 2021-03-0201:20:38 发布 505 收藏 9 分类专栏: 机器学习 深度学习 计算机视觉 文章标签: 神经网络 python tensorflow 版权声明:本文为博主原创文章,遵循CC4.0BY-SA版权协议,转载请附上原文出处链接和本声明。

本文链接:https://blog.csdn.net/qq_45804132/article/details/114271262 版权 机器学习 同时被3个专栏收录 8篇文章 1订阅 订阅专栏 深度学习 5篇文章 1订阅 订阅专栏 计算机视觉 17篇文章 0订阅 订阅专栏 这篇文章将从零开始指导阅读者利用tensorflow搭建一个神经网络,若是有问题还请指出,或直接再评论区更正。

若是对前面的内容不感兴趣可直接跳至神经网络处。

文章目录 一.安装tensorflow二.tensorflow是什么1.HelloTensorFlow!2.张量3.tensorflow的基本概念①.算子②.节点③.边④.会话 三.从代码开始接触,由浅入深1.数据类型与逻辑运算2.矩阵3.占位符4.常用方法 四.手把手着手搭建一个神经网络1.网络的结构2.引入数据3.创建一个有隐藏层的反馈神经网络来计算这个曲线4.损失函数与模型训练5.第一个网络完整代码6.构建第二层网络 五.为什么名为反馈神经网络 一.安装tensorflow cmd命令 pipinstalltensorflow 很慢,这里建议换源 pipinstalltensorflow-ihttps://pypi.douban.com/simple/ 之后大概率会出现**Cannotuninstall‘wrapt’.**这样的报错。

这时候手动操作,输入命令 pipinstallwrapt--ignore-installed 应该就可以解决了。

之后检验 importnumpyasnp importtensorflow.compat.v1astf print(tf.__version__) 如果如下便正常。

二.tensorflow是什么 1.HelloTensorFlow! 这句话与我们初学编程时的"helloworld!"相同,都是开始接触编程时所学的东西。

在学习一门语言,一个框架的时候,首先,要对这门语言或者这门框架有一些基本的认识,我们来谈谈tensorflow到底是个什么。

TensorFlo是一个基于数据流编程(dataflowprogramming)的符号数学系统,被广泛应用于各类机器学习(machinelearning)算法的编程实现,其前身是谷歌的神经网络算法库DistBelief,现在我们就可以直接把它看为一个机器学习的算法库。

名为tensorflow有其自己的寓意,tensor是张量的意思,flow是流动的意思,仅就字面意思而言,tensorflow的意思是让张量流动起来,我们不妨拓展一下,将其看为,让数据流动起来。

让数据一端流动到另一端。

其实就是将复杂的数据传输到人工智能神经网络中进行处理的一个系统。

2.张量 张量是矢量的推广,矢量是一阶张量,矩阵是二阶张量而三阶的张量好比立体的矩阵。

张量是一个表示矢量,标量,和其他张量之间的线性关系的多线性函数。

可以看做是tensorflow中的某种基本数据类型。

3.tensorflow的基本概念 ①.算子 在tensorflow中集成了很多现成的,已经实现的机器学习经典算法,这些算法被称为算子(Operation),每个算子在定义时就被定下了规则,方法,数据类型以及相应的输出结果。

②.节点 某个输入数据在算子中的具体运行和实现。

③.边 边分为正常边,和特殊边 正常边:数据流动的通道。

特殊边:又被称为“控制依赖”,其作用就是控制节点之间相互依赖,使数据的流动遵循一定的顺序。

或者可以实现多线程运行数据的执行。

④.会话 会话是tensorflow的主要交互方式,tensorflow的一般流程为: 建立会话生成一张空图添加各个节点和边形成一个有连接的图启动图对模型进行循环。

三.从代码开始接触,由浅入深 1.数据类型与逻辑运算 首先,我们运行一段代码 importnumpyasnp importtensorflow.compat.v1astf #导入tensorflow2需要用到该语句,否则会报错。

tf.compat.v1.disable_eager_execution() #创建会话控制 sess=tf.Session() a=tf.constant(1) b=tf.constant(2) #利用会话控制调用 print(sess.run(tf.add(a,b))) 结果为 开头的导库以及必须要的那段语句目前大家记住便可。

之后会解释。

首先创建一个对话。

定义了两个量。

constant:这是常量的意思。

我们知道编程语言中存在常量变量。

常量一般是不可变的。

比如重力加速度,地球的第一宇宙速度,都属于常量。

tf.add()相加,它是对我们输入的两个tensor进行相加的,而我们调用它,将它输出出来则需要用到会话控制。

tensorflow本身是包含各种数据类型的,不论是int32,float64,等等,在python中可以看到的,几乎在tensorflow都能看到。

importnumpyasnp importtensorflow.compat.v1astf #导入tensorflow2需要用到该语句,否则会报错。

tf.compat.v1.disable_eager_execution() sess=tf.Session() hello=tf.constant('hellotensorflow!',dtype=tf.string) print(sess.run(hello)) 如上就是一个tf的字符串。

接下来我们来看会话控制的一个重要功能。

importtensorflow.compat.v1astf #导入tensorflow2需要用到该语句,否则会报错。

tf.compat.v1.disable_eager_execution() #创建会话控制中心 sess=tf.Session() #创建常量 input_1=tf.constant(1) print(input_1) #创建变量 input_2=tf.Variable(2) print(input_2) input_2=input_1 print(sess.run(input_2)) 结果如下:input1显示是没有什么问题的,一个张量。

但是input在没有执行会话之前,明明被赋值了,却没有数据,这说明只有在执行会话之后,input2变量才会发生真实值的变化。

如上为tensorflow几种常用的数据类型。

2.矩阵 tensorflow由于其自身的结构,它也具有其自己矩阵的运算方法。

importnumpyasnp importtensorflow.compat.v1astf #导入tensorflow2需要用到该语句,否则会报错。

tf.compat.v1.disable_eager_execution() sess=tf.Session() #创建一个矩阵张量 a=tf.constant([1,2,3],shape=[2,3]) print(sess.run(a)) 结果如下: 第一行是我们设置的,而第二行则是从第一行随机选取数据填充。

创建矩阵的模式很多。

如果要随机创建矩阵的话,可以用如下的方法 b=tf.random_normal((2,3)) c=tf.truncated_normal((2,3)) d=tf.random_uniform((2,3)) 具体的参数,这里不需要细讲,需要的时候会展开说。

tf.shape()方法可以得到矩阵得大小信息。

矩阵的运算方法大致如下 3.占位符 占位符是在tensorflow中的一种特殊的数据类型,没错它也是数据类型,只是很特殊,看代码: ''' 占位符 ''' importtensorflow.compat.v1astf #导入tensorflow2需要用到该语句,否则会报错。

tf.compat.v1.disable_eager_execution() #创建会话控制中心 sess=tf.Session() a=tf.placeholder(tf.int32) b=tf.placeholder(tf.int32) output=tf.add(a,b) #feed_dict对象将tensor对象映射为numpy数组 print(sess.run(output,feed_dict={a:[1],b:[2]})) 通过 a=tf.placeholder(dtype) 的方式定义一个某种类型的占位符。

之后可以通过feed_dict函数传参进去,这个方法类似于什么呢。

a,b=1,2 print('test:{0},{1}'.format(a,b)) 可以认为类似于python中的format方法。

这里主要Feeding_dict()函数,Feeding是tensorflow的一种机制,它允许你在运行时使用不同的值替换一个或者多个tensor的值,feed_dict就是将tensor对象,映射为Numpy的数组和一些其他类型,同时在执行step时,这些数组就是tensor的值。

4.常用方法 如下为tensorflow中的常用方法: (这里不拍照的话实在是太麻烦了,还没效率。



) 四.手把手着手搭建一个神经网络 1.网络的结构 网络的结构,这张图展示的很清楚,我们需要做输入数据,将数据输入之后,通过各个隐藏层的计算,最后输出出来,而我们需要的结果,也就是说我们要训练模型其实要得到的f(x)=wx+b的这样一个w和b。

2.引入数据 既然看到了神经网络,那么说明小伙伴的机器学习基础起码是有的,那么这便是常识了,训练模型,自然是需要训练集的,这里我们用随机数生成。

#创建一个大量的输入数据 input_X=np.random.rand(3000,1) #创建噪声曲线 nosie=np.random.normal(0,0.05,input_X.shape) #创建一个线性曲线 output_y=input_X*4+1+nosie 3.创建一个有隐藏层的反馈神经网络来计算这个曲线 ''' 创建一个有隐藏层的反馈神经网络来计算这个线性曲线 ''' #这里是第一层 ''' weight与bias_1为神经网络隐藏层的变量,后续会随着误差算法不断的更迭。

''' weight_1=tf.Variable(np.random.rand(input_X.shape[1],4)) bias_1=tf.Variable(np.random.rand(input_X.shape[1],4)) #x1为占位符,期间要不断输入数据,而y1为最终需要的目标。

x1=tf.placeholder(tf.float64,[None,1]) #y1最终的目标是一个线性模型。

y1=tf.matmul(x1,weight_1)+bias_1 4.损失函数与模型训练 y=tf.placeholder(tf.float64,[None,1]) loss=tf.reduce_mean(tf.reduce_sum(tf.square((y1-y)),reduction_indices=[1])) ''' train采用梯度下降法算法计算。

''' train=tf.train.GradientDescentOptimizer(0.25).minimize(loss) ''' init启动数值的初始化 ''' init=tf.global_variables_initializer() ''' 启动会话 ''' sess.run(init) foriinrange(1000): sess.run(train,feed_dict={x1:input_X,y:output_y}) loss为定义的损失函数,这里采用最小二乘损失法,即计算模型真实值与输出值之间的最小二乘法。

minimize方法,大致包含两个过程,计算各个变量的梯度,以及用梯度去更新各个变量的值,其参数就是我们定义的损失,无可厚非。

其余的注解都在代码之中了。

5.第一个网络完整代码 完整代码 ''' 设计一个简单的神经网络 ''' importtensorflow.compat.v1astf importnumpyasnp #导入tensorflow2需要用到该语句,否则会报错。

tf.compat.v1.disable_eager_execution() #创建会话控制 sess=tf.Session() #创建一个大量的输入数据 input_X=np.random.rand(3000,1) #创建噪声曲线 nosie=np.random.normal(0,0.05,input_X.shape) #创建一个线性曲线 output_y=input_X*4+1+nosie ''' 创建一个有隐藏层的反馈神经网络来计算这个线性曲线 ''' #这里是第一层 ''' weight与bias_1为神经网络隐藏层的变量,后续会随着误差算法不断的更迭。

''' weight_1=tf.Variable(np.random.rand(input_X.shape[1],4)) bias_1=tf.Variable(np.random.rand(input_X.shape[1],4)) #x1为占位符,期间要不断输入数据,而y1为最终需要的目标。

x1=tf.placeholder(tf.float64,[None,1]) #y1最终的目标是一个线性模型。

y1=tf.matmul(x1,weight_1)+bias_1 y=tf.placeholder(tf.float64,[None,1]) loss=tf.reduce_mean(tf.reduce_sum(tf.square((y1-y)),reduction_indices=[1])) ''' train采用梯度下降法算法计算。

''' train=tf.train.GradientDescentOptimizer(0.25).minimize(loss) ''' init启动数值的初始化 ''' init=tf.global_variables_initializer() ''' 启动会话 ''' sess.run(init) foriinrange(1000): sess.run(train,feed_dict={x1:input_X,y:output_y}) ''' 训练完成后,打印出参数。

''' print('weight:',weight_1.eval(sess)) print('bias_l:',bias_1.eval(sess)) x_data=np.matrix([[1.],[2.],[3.]]) print(sess.run(y1,feed_dict={x1:x_data})) ok,我们来看看结果。

其实我们最终要求的就是w和b这俩个参数罢了,这就是很简单的网络, 6.构建第二层网络 第二层的设置与第一层类似,但是这时候要注意了,第二层的输入一定会是第一层的结果,这样才实现了一层一层数据的传递。

如下图 代码: ''' 设计一个简单的神经网络 ''' importtensorflow.compat.v1astf importnumpyasnp #导入tensorflow2需要用到该语句,否则会报错。

tf.compat.v1.disable_eager_execution() #创建会话控制 sess=tf.Session() #创建一个大量的输入数据 input_X=np.random.rand(3000,1) #创建噪声曲线 nosie=np.random.normal(0,0.05,input_X.shape) #创建一个线性曲线 output_y=input_X*4+1+nosie ''' 创建一个有隐藏层的反馈神经网络来计算这个线性曲线 ''' #这里是第一层 ''' weight与bias_1为神经网络隐藏层的变量,后续会随着误差算法不断的更迭。

''' weight_1=tf.Variable(np.random.rand(input_X.shape[1],4)) bias_1=tf.Variable(np.random.rand(input_X.shape[1],4)) #x1为占位符,期间要不断输入数据,而y1为最终需要的目标。

x1=tf.placeholder(tf.float64,[None,1]) #y1最终的目标是一个线性模型。

y1=tf.matmul(x1,weight_1)+bias_1 ''' 创建第二层 ''' weight_2=tf.Variable(np.random.rand(4,1)) bias_2=tf.Variable(np.random.rand(input_X.shape[1],1)) y2=tf.matmul(y1,weight_2)+bias_2 ''' 这里的y是一个占位符,loss为定义的损失函数,这里用最小二乘法计算损失。

''' y=tf.placeholder(tf.float64,[None,1]) loss=tf.reduce_mean(tf.reduce_sum(tf.square((y2-y)),reduction_indices=[1])) ''' train采用梯度下降法算法计算。

''' train=tf.train.GradientDescentOptimizer(0.25).minimize(loss) ''' init启动数值的初始化 ''' init=tf.global_variables_initializer() ''' 启动会话 ''' sess.run(init) foriinrange(1000): sess.run(train,feed_dict={x1:input_X,y:output_y}) ''' 训练完成后,打印出参数。

''' print('weight:',weight_1.eval(sess)) print('bias_l:',bias_1.eval(sess)) x_data=np.matrix([[1.],[2.],[3.]]) print(sess.run(y1,feed_dict={x1:x_data})) 五.为什么名为反馈神经网络 为什么叫它反馈神经网络。

在网络的一次一次循环运行中,每一次得到的结果,其实tensorflow都会判断它是否到达了期望的值,或者是否到达了迭代的设置次数极限,若是没有达到则会进行一个逆过程,进行参数的修正,而这个参数的修正就是依靠了一个反馈的过程。

才疏学浅的莫笑天 关注 关注 0 点赞 踩 1 评论 9 收藏 打赏 扫一扫,分享内容 点击复制链接 专栏目录 TensorFlow零基础入门实战教程 03-06 本课程是人工智能深度学习框架TensorFlow零基础入门实战课程,有具有十几年一线技术研发经验的资深技术专家主讲,课程内容包括:3个实战案例7大组成部分34项关键技术

带你系统学习TensorFlow深度学习框架体系结构、安装部署、开发基础入门、案例实战和可视运行监控。

课程案例采用主流深度学习语言Python编写,有效降低学习难度。

评论 1 您还未登录,请先 登录 后发表或查看评论 深度学习之使用Tensorflow搭建一个神经网络 最新发布 君莫笑的博客 05-02 1694 TensorFlow是一个端到端开源机器学习平台。

它拥有一个包含各种工具、库和社区资源的全面灵活生态系统,可以让研究人员推动机器学习领域的先进技术的发展,并让开发者轻松地构建和部署由机器学习提供支持的应用 tensorflow学习3--建立网络详解 我是谁我在哪我在学什么 04-18 1144 首先总结一下核心过程: 导入数据,建立网络,设置相关标准,进行训练,评估模型,进行预测。

导入数据要具体问题具体分析,因此我先了解一下建立网络。

官网教程 深度学习笔记 构建网络的代码 你可以通过将网络层实例的列表传递给Sequential的构造器,来创建一个Sequential模型: fromkeras.modelsimportSequential fromkeras.layersimportDense,Activation model=Sequential([ Den tensorflow实战自学【一】 qq_28053699的博客 07-22 60 Tensorflow实现SoftmaxRegression识别手写数字 实现方式:运用单层感知器实现,激活函数采用softmax(),将28*28的图片展开成784维的向量,样本标签采用hotpot的形式,loss函数采用交叉熵,训练算法采用梯度下降算法。

源代码: #-*-coding:utf-8-*- """ CreatedonSatJul2011:23:292019 ... 多层神经网络BP算法原理及推导 07-12 732   首先什么是人工神经网络?简单来说就是将单个感知器作为一个神经网络节点,然后用此类节点组成一个层次网络结构,我们称此网络即为人工神经网络(本人自己的理解)。

当网络的层次大于等于3层(输入层+隐藏层(大于等于1)+输出层)时,我们称之为多层人工神经网络。

1、神经单元的选择   那么我们应该使用什么样的感知器来作为神经网络节点呢?在上一篇文章我们介绍过感知器算法,但是直接使用的话会存... 用Python实现神经网络(附完整代码)! 热门推荐 Datawhale 12-01 2万+ ↑↑↑关注后"星标"Datawhale每日干货&每月组队学习,不错过Datawhale干货作者:[美]霍布森·莱恩,科尔·霍华德在学习神经网络之前,我们需... 【从零开始学习Tensorflow】(一)第3章TensorFlow入门 欢迎来到无尾君的小窝 04-04 1万+ 转载请注明作者和出处:https://blog.csdn.net/weixin_37392582 开发平台:Win10+Python3.6+Anaconda3 编  者:无尾 3、TensorFlow计算模型——计算图 3.1、计算图的概念 3.2计算图的使用 3.2、TensorFlow数据模型——张量 3.2.1、张量的概念 3.2.2、张量的使用 3... tensorflow2.1自学(一) beingod0的摸爬滚打 03-18 168 大神的git链接 从大神的代码中学习到了不少精髓,在此进行总结 基本元素 tf.constant 创建一个constantop,以一个节点形式加入到默认图中,即在默认图中创建了一个常量op,其形式是tensorflow的张量 Helloworld=tf.constant(“hello,tensorflow”) Print(“value:”,Helloworld.numpy()) tf.V... tensorflow自学日志 Michealmushan的博客 09-12 481 本人为tensorflow初学者,在win7系统下自学谷歌深度学习框架tensorflow。

在这中间遇到了很多问题,也受到了很多前辈和朋友们的帮助。

这样我萌生了来这里写点东西的想法,一是记录自己的学习过程和经验教训,二是希望自己遇到和解决的一些问题能为后来者提供一些帮助。

在这里我将记录我自己遇到的一些问题,如果在网上很容易找到答案的就不再重复了。

如果已经得到解决会加上解决方案,如果还没有解决也 tensorflow学习笔记(1)如何高效地学习TensorFlow(附链接) 满城风絮 12-25 8954 且看知乎上的帖子:如何高效的学习tensorflow? 本篇简要总结以下,并不断更新中~~ tensorflow官网(需要翻墙)一个有用的链接学习TensorFlow 极客学院的MNIST入门github的tensorflow主页Stanford的CS20SI课程,专门针对TensorFlow的课程First ContactWithTensorFlow,中文:与Tensor 使用tensorflow创建一个简单的神经网络 庐州月光的博客 06-21 200 欢迎关注”生信修炼手册”!本文是对tensorflow官方入门教程的学习和翻译,展示了创建一个基础的神经网络模型来解决图像分类问题的过程。

具体步骤如下1.加载数据tensorflow集... 【Tensorflow】Tensorflow入门教程(一)(真实入门!超简单!) BIG_friend的博客 11-02 3757 Tensorflow学习笔记(一) 本笔记配套于deeplearning.ai的IntroduceToTensorFlowforArtificialIntelligence,MachineLearning,andDeeplearning 1.安装 方法一:打开IDE中的Terminal终端,输入命令:pipinstalltensorflow==2.0.0-alpha0 方法二... 用tensorflow搭建神经网络 weixin_44154096的博客 11-14 607 这是19年的学习笔记,使用的是基于cpu的tensorflow。

神经元模型 神经网络中最基本的成分是神经元(neuron)模型。

在生物神经网络中,每个神经元与其他神经元相连,当它"兴奋"时,就会向相连的神经元发送化学物质,从而改变这些神经元内的电位。

如果某神经元的电位超过了一个"阔值"(threshold),那么它就会被激活,即"兴奋"起来,向其他神经元发送化学物质。

现在常用的是:M-P神经元模型。

在这个模型中,神经元接收到来自n个其他神经元传递过来的输入信号。

这些输入信号通过带权重的连接( 神经网络实现鸢尾花分类 wyk71456的博客 09-29 5974 课程讲解链接 神经网络实现鸢尾花分类仅需三步: √准备数据 数据集读入 数据集乱序 生成训练集、测试集 配成对(输入特征、标签),每次读入一小撮batch √搭建网络 定义神经网络中所有可训练参数 √参数优化 嵌套循环迭代,with结构中求得损失函数loss对每个可训练参数的偏导数,更新可训练参数,显示当前loss 鸢尾花分类代码: 准备数据 #-*-coding:UTF-8-*- #利用鸢尾花数据集,实现前向传播、反向传播,可视化loss曲线 #导入所需模块 importtensor 深度学习框架Tensorflow学习 qq_34258054的博客 05-23 6782 1.基于Windows平台的Tensorflow安装2.Tensorflow优化器(1)在Tensorflow中一共有7种优化器,这7种优化器分别为:       tf.train.GradientDescentOptimizer:对于初学者来说,使用该种方法就可以了;    tf.train.AdadeltaOptimizer     tf.train.MomentumOptimizer:该种优... tensorflow实战自学【六】 qq_28053699的博客 08-06 388 RNN(循环神经网络)初步之LSTM(长短期记忆) 所用部分函数解读 tensorflow自学笔记 欢迎访问方偲的博客 11-28 214 (更新中...)  我是跟着网易云课堂上的深度学习应用开发TensorFlow实践(吴明晖、李卓蓉、金苍宏)在学习tensorflow的,我会慢慢把自己敲的ppt中的例子的代码和结果整理之后放上来,以供大家一起学习! 系统:macOS 版本: 如何在tensorboard中查看图 #打印1~10 importtensorflowastf tf.reset_default_g... tensorflow实战自学【三】 qq_28053699的博客 08-07 124 卷积神经网络初步 tensorflow的学习,开始慢慢入门 zize_snail的博客 06-09 704 本博客会记录我学习tensorflow的过程,后期在nlp上进行实战的会比较多。

加油,一步步慢慢积累。

现在自己就是一个小白,慢慢来吧。

1.tensorflow的简单入门 推荐网址:https://www.jianshu.com/p/2ea7a0632239 该网站可以让我们简单了解一下tensorflow。

2.word2vector的skip-gram的实现 推荐网址(下... 自学tensorflow第一次 qq_40208392的博客 03-18 244 ***说明:我的博客只是自己的学习笔记,供自己整理和复习使用。

若有瑕疵,欢迎指教。

***第一次笔记,其实是整理思路,基本没有代码。





***question1:Whatistensorflow?(ThedefinitionontheInternetis...  therearelotsofdefinitions.Iwon'ttalkabouttheman... “相关推荐”对你有帮助么? 非常没帮助 没帮助 一般 有帮助 非常有帮助 提交 ©️2022CSDN 皮肤主题:像素格子 设计师:CSDN官方博客 返回首页 才疏学浅的莫笑天 CSDN认证博客专家 CSDN认证企业博客 码龄3年 西安邮电大学 124 原创 16万+ 周排名 1万+ 总排名 12万+ 访问 等级 2350 积分 1131 粉丝 271 获赞 85 评论 583 收藏 私信 关注 热门文章 numpy中的polyfit 17682 ModuleNotFoundError:Nomodulenamed‘tensorflow.python‘以及安装后遇到的坑 13203 (爬虫淘宝秒杀)你刚学会爬虫时,脑子里的那点骚想法我把它实现了!! 5381 将三个数字从小到大排列(或者从大到小排列)c及python 5336 数据结构课设:迷宫问题(c语言版) 4574 分类专栏 实习记录 2篇 算法 24篇 web开发 6篇 GUI开发 1篇 数据分析 4篇 机器学习 8篇 操作系统 1篇 分布式 1篇 环境问题 6篇 网络爬虫开发 6篇 深度学习 5篇 计算机视觉 17篇 github 1篇 数据库 1篇 前端开发 1篇 最新评论 数据结构课设:迷宫问题(c语言版) yumo597: 懂了,感谢大佬 数据结构课设:迷宫问题(c语言版) 才疏学浅的莫笑天: 这里的命名是有规则,所谓si,sj就是starti,startj也就是起始的位置,那么eiej,应该不用说了叭。

数据结构课设:迷宫问题(c语言版) yumo597: eiejsisj是干什么的,有点没看懂 c语言:求一个长数字中出现特定数字的个数 m0_69227913: 如果查找的数字大于十怎么办呢 练习7-4找出不是两个数组共有的元素(20分) 我想学建模: 实在是没懂j怎么>=n 您愿意向朋友推荐“博客详情页”吗? 强烈不推荐 不推荐 一般般 推荐 强烈推荐 提交 最新文章 pythonthreading1 基于aiohttp后台架构开发(将深度学习模型安全的加载到一个进程中)(接上文) 基于aiohttp后台架构开发(更新中) 2022年4篇 2021年42篇 2020年78篇 目录 目录 分类专栏 实习记录 2篇 算法 24篇 web开发 6篇 GUI开发 1篇 数据分析 4篇 机器学习 8篇 操作系统 1篇 分布式 1篇 环境问题 6篇 网络爬虫开发 6篇 深度学习 5篇 计算机视觉 17篇 github 1篇 数据库 1篇 前端开发 1篇 目录 评论 1 被折叠的  条评论 为什么被折叠? 到【灌水乐园】发言 查看更多评论 打赏作者 才疏学浅的莫笑天 你的鼓励将是我创作的最大动力 ¥2 ¥4 ¥6 ¥10 ¥20 输入1-500的整数 余额支付 (余额:--) 扫码支付 扫码支付:¥2 获取中 扫码支付 您的余额不足,请更换扫码支付或充值 打赏作者 实付元 使用余额支付 点击重新获取 扫码支付 钱包余额 0 抵扣说明: 1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。

2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值


請為這篇文章評分?