当前位置:文档之家› TensorFlow深度学习框架

TensorFlow深度学习框架

TensorFlow Glimpse

了解

By :程枫

justry2014@https://www.doczj.com/doc/e517692703.html,

深度学习工具对比

库名称开发语言平台特性

Caffe

Caffe->Caffe2

C++/python/Matlab Linux / Mac OS / Windows在CV领域应用最为广泛

Theano python Linux / Mac OS / Windows发布早,文档丰富

适用于学术领域

PyTorch Torch->PyTorch

Python

(Torch开发语言为Lua/C)

Linux / Mac OS轻量级、灵活

Tensorflow C++ / Python Linux / Mac OS /Windows

Android / iOS功能齐全、适合企业级开发Keras一个用于快速构建深度学习原型的高级库,可以用Tensorflow 和Theano 的backend,优点是高度的模块化

安装(Ubuntu 16.04 64bit)

1、安装Anaconda

(1)官网下载对应版本

(2)在下载目录下执行:bash Anaconda3-4.4.0-Linux-x86_64.sh (3)安装Spyder ,sudo apt install spyder

2 、安装TensorFlow CPU版本

(1)方法一:pip install tensorflow

(2)方法二:下载源码安装(可对配置进行修改)

env python2.7

import tensorflow as tf

matrix1 = tf.constant([[3., 3.]])

matrix2 = tf.constant([[2.],[2.]])

product = tf.matmul(matrix1, matrix2)

sess = tf.Session()

result = sess.run(product)

print result

sess.close() #关闭会话运行结果: [[ 12.]]

TensorFlow 的数据模型为tensor(张量),可简单理解为类型化的多维数组,0 维张量是一个数字,也成为标量,1维张量称为“向量”,2维张量称为矩阵…… 但和Numpy 中的数组不同是,一个张量中主要保留了三个属性:name,shape,type

#env = python 2.7

import tensorflow as tf

a = tf.constant([1,2,3])

b = tf.constant([2,3,5])

result = tf.add(a,b, name = “add”) print result

tensor(“add:0", shape=(3,), dtype=int32)

add:0 表示result这个张量是计算节点“add”输出的第一个结果shape = (3,)表示张量是一个一维数组,这个数组的长度是3 dtype=int32 是数据类型,TensorFlow会对参与运算的所有张量进行类型的检查,当类型不匹配时会报错。

运行结果

TensorFlow 的运行模型为session (会话),会话拥有和管理TensorFlow 程序

运行时的所有资源,当计算完成后,需要关闭会话来帮助系统回收资源,否则就可能出现

资源泄露的问题,TensorFlow 使用会话的方式主要有如下两种模式:

#env = python 2.7

sess = tf.Session()#创建一个会话sess.run(result) #运行此会话Sess.close() #运行完毕关闭此会话

array([3,5,8], dtype=int32)

当使用第一种模式,程序因为异常而退出时,关闭会话的函数就可能不会执行从而导致资源泄露,因此,推荐使用第二种模式

运行结果#env = python 2.7

with tf.Session() as sess:

sess.run(result)

#通过python 的上下文管理器来使用会话,当上下文退出时会话管理和资源释放也自动完成

TensorFlow的计算模型为graph(图),一个TensorFlow图描述了计算的过程.为了进行计算,图必须在会话里被启动.会话将图的op(节点)分发到诸如CPU或GPU之类的设备上,同时提供执行op的方法.这些方法执行后,将产生的tensor返回.在Python语言中,返回的tensor是numpy ndarray对象;在C/C++语言中,返回的tensor是tensorflow::Tensor实例

. a

b

add

TensorFlow 的Tensor 表明了它的数据结构,而Flow 则

直观地表现出张量之间通过计算相互转化的过程

TensorFlow中的每一个计算都是图上的一个节点,而节

点之间的边描述了计算之间的依赖关系,a, b 为常量,

不依赖任何计算,而add 计算则依赖读取两个常量的取

值。

在实现上, TensorFlow 将图形定义转换成分布式执行的操作。一般不需要显式指定使用CPU 还是GPU, TensorFlow 能自动检测。如果检测到GPU,TensorFlow 会尽可能地利用找到的第一个GPU 来执行操作。如果机器上有超过一个可用的GPU, 除第一个外的其它GPU 默认是不参与计算的。为了让TensorFlow 使用这些GPU, 你必须将op 明确指派给它们执行.with...Device 语句用来指派特定的CPU 或GPU 执行操作

with tf.Session() as sess:

with tf.device("/gpu:1"):

matrix1 = tf.constant([[3., 3.]])

matrix2 = tf.constant([[2.],[2.]])

product = tf.matmu 为了获取你的operations和Tensor被指派到哪个设备上运行,用log_device_placement新建一个session,并设置为True.

Sess=tf.Session(config=tf.ConfigProto(log_device_p lacement=True))

变量Variable

当训练模型时,用变量来存储和更新参数。变量包含张量(Tensor)存放于内存的缓存区。建模时它们需要被明确地初始化,模型训练后它们必须被存储到磁盘。这些变量的值可在之后模型训练和分析是被加载。

当创建一个变量时,你将一个张量作为初始值传入构造函数Variable()。TensorFlow提供了一系列操作符来初始化张量,初始值是常量或是随机值。在初始化时需要指定张量的shape,变量的shape通常是固定的,但TensorFlow提供了高级的机制来重新调整。

weights = tf.Variable(tf.random_normal([2,3], stddev = 2),name="weights")这里生成2×3 的矩阵,元素的均值为0,标准差为2(可用mean指定均值,默认值为0)。

随机数生成函数:tf.truncated_normal()正太分布,偏离平均值超过两个偏差,重新选择

tf.random_uniform(最小值,最大值)平均分布(控制字符中可加入种子,seed = n )常数生成函数:全零数组tf.zeros([2,3],int32)全一数组tf.ones() 全为给定的某数(例如9):tf.fill([2,3],9)

产生给定值得常量tf.cinstant([1,2,3])

变量Variable

除了tf.Variable 函数,TensorFlow 还提供了tf.get_variable 函数来创建或获取变量。它们的区别在于,

对于tf.Variable 函数,变量名称是个可选的参数,通过name = ‘v ’给出,但对于tf.get_variable 函数,变量名称是必填的选项,它会首先根据变量名试图创建一个参数,如果遇到同名的参数就会报错。

>>> import tensorflow as tf

>>> v = tf.Variable(tf.constant(1.0,shape = [1]), name = 'v')>>> v1 = tf.Variable(tf.constant(1.0,shape = [1]), name = 'v')>>> print (v==v1)False >>> print(https://www.doczj.com/doc/e517692703.html,)v:0>>> print(https://www.doczj.com/doc/e517692703.html,)v_1:0>>> n = tf.get_variable (‘n’, shape=[1] , initializer = tf.constant_initializer(1.0)) # 初始化>>> n1 = tf.get_variable('n', shape=[1] , initializer = tf.constant_initializer(1.0))Traceback (most recent call last):File "", line 1, in ……

如果需要通过tf.get_variable 获取一个已经创建的变量。需要通过tf.variable_scope 函数来生成一个上下文管理器,当tf.variable_scope 函数使用参数reuse = True 时(默认值为False ),这个上下文管理器内所有

tf.get_variable 函数会直接获取已经创建的变量,如果变量不存在,就会报错。tf.variable_scope 函数是可嵌套的,当不指定值时,reuse 的值将会和外面一层保持一致。

with tf.variable_scope("foo"):

v = tf.get_variable("v", [1], initializer=tf.constant_initializer(1.0)) #with tf.variable_scope("foo"):

# v = tf.get_variable (“v”, [1]) #报错with tf.variable_scope("foo", reuse=True):

v1 = tf.get_variable("v", [1])

print (v == v1) # 运行结果:True with tf.variable_scope("",reuse=True):

v5 = tf.get_variable(“foo/bar/v”, [1]) # 获取foo/bar 中创建的变量

>>>print(https://www.doczj.com/doc/e517692703.html,)

foo/v2:0

在生成上下文管理器时,也会创建一个命名空间,在命名空间内创建的变量名称,

都会带上这个命名空间名作为前缀。可以之间通过带命名空间的变量名来获取其他命名空间下的变量。

变量·实例

# 创建一个op, 其作用是使state 增加1

state = tf.Variable(0, name="counter") one = tf.constant(1)

new_value = tf.add(state, one)

update = tf.assign(state, new_value) init_op = tf.initialize_all_variables() with tf.Session() as sess:

sess.run(init_op)

print sess.run(state)

for _ in range(3):

sess.run(update)

print sess.run(state)

代码中assign()操作是图所描绘的表达式的一部分,正如add()操作一样.。所以在调用run()执行表达式之前,它并不会真正执行赋值操作。

通常会将一个统计模型中的参数表示为一组变量.例如,你可以将一个神经网络的权重作为某个变量存储在一个tensor中。在训练过程中,通过重复运行训练图,更新这个tensor。

注:assign(ref, value, validate_shape=None, use_locking=None, name=None)函数功能Update 'ref' by assigning 'value' to it.

变量Variable

有时候会需要用另一个变量的初始化值给当前变量初始化。tf.initialize_all_variables()是并行地初始化所有变量。使用其它变量的值初始化一个新的变量时,可以直接把已初始化的值作为新变量的初始值,或者把它当做tensor计算得到一个值赋予新变量。

weights = tf.Variable(tf.random_normal([784, 200], stddev=0.35),name="weights")

w2 = tf.Variable(weights.initialized_value(), name="w2")

w_twice = tf.Variable(weights.initialized_value() * 0.2, name="w_twice")

保存和恢复变量

v1=tf.Variable(...,name="v1")

v2=tf.Variable(...,name="v2")

init_op=tf.initialize_all_variables()

saver=tf.train.Saver()

with tf.Session()as sess:

sess.run(init_op)

save_path=saver.save(sess,"/tmp/model.ckpt") print"Model saved in file:",save_path

v1=tf.Variable(...,name="v1")

v2=tf.Variable(...,name="v2")

saver=tf.train.Saver()

with tf.Session()as sess:

saver.restore(sess,"/tmp/model.ckpt") print"Model restored."

用同一个Saver对象来恢复变量。当从文件中恢复变量时,不需要对它们做初始化。tf.train.Saver()默认保存和加载计算图上定义的全部变量,如果只需加载模型的部分变量,例如可以使用tf.train.Saver([v1])构建,这样只有变量v1会被加载进来。

如果要对变量名进行修改,可通过字典将模型保存时的变量名和需要加载的变量联系起来。

v1=tf.Variable(tf.constant(1.0,shape=[1]),name="other-v1") v2=tf.Variable(tf.constant(2.0,shape=[1]),name="other-v2") saver=tf.train.Saver({"v1":v1,"v2":v2})

Xaiver initialization

如果深度学习模型的权重初始化得太小,那信号将在每层间传递时逐渐缩小而难以产生作用;如果权重初始化得太大,那信号将在每层间传递时逐渐放大并导致发散和失效。

Xaiver initialization 由Xavier Glorot 和Yoshua Bengio 在2010年提出,Xavier 让权重满足

均值为0,前向传播和反向传播时每一层的方差一致:

但是,实际当中输入与输出的个数往往不相等,于是为了均衡考量,最终我们的权重方差应满足

因此,Xavier 初始化的实现就是:

Python 代码:

def xavier_init (fan_in , fan_out , constant = 1):

low = -constant * np.sqrt(6.0 / (fan_in + fan_out))high = constant * np.sqrt( 6.0 / (fan_in + fan_out))return tf.random_uniform((fan_in , fan_out),

minval =low , maxval =high , dtype =tf.float32)

具体推导过程参考论文:Understanding the difficulty of training deep feedforward neural networks

根据均匀分布的性质,它的方差正好是

,均值为0。这里实现的是

均匀分布(也可以是高斯分布)。代码中,fan_in 就是输入节点的数量,fan_out 是输出节点的数量。

Fetch & Feed

为了取回操作的输出内容, 可以在使用Session 对象的run() 调用执行图时, 传入一些tensor, 来取回结果。当获取的多个tensor 值时,是在op 的一次运行中一起获得而不是逐个去获取的。

feed 使用一个tensor 值临时替换一个操作的输出结果. 你可以提供feed 数据作为run() 调用的参数。feed 只在调用它的方法内有效, 方法结束, feed 就会消失。最常见的用例是将某些特殊的操作指定为“feed” 操作, 标记的方法是使用tf.placeholder() 为这些操作创建占位符。

input1=tf.constant(3.0)

input2=tf.constant(2.0)

input3=tf.constant(5.0)

intermed=tf.add(input2,input3)

mul=tf.multiply(input1,intermed) with tf.Session()as sess:

result=sess.run([mul,intermed])

print result input1=tf.placeholder(tf.float32)#占位符

input2=tf.placeholder(tf.float32)

output=tf.multiply(input1,input2)

with tf.Session()as sess:

print sess.run([output],feed_dict={input1:[7.],input2:[2.]})

运行结果:[21.0, 7.0]

运行结果:[array([ 14.], dtype=float32)]

三个步骤:(1)定义神经网络的结构和前向传播的输出结果;

(2)定义损失函数以及选择反向传播优化的算法;

(3)生成会话并且在训练数据上反复运行反向传播优化算法。

完整实例程序

import tensorflow as tf

from numpy.random import RandomState

batch_size=8#定义训练数据batch大小

w1=tf.Variable(tf.random_normal([2,3],stddev=1,seed=1))

w2=tf.Variable(tf.random_normal([3,1],stddev=1,seed=1))

x=tf.placeholder(tf.float32,shape=(None,2),name="x-input")

y_=tf.placeholder(tf.float32,shape=(None,1),name='y-input')

a=tf.matmul(x,w1)#前向传播过程

y=tf.matmul(a,w2)

#定义损失函数和反向传播的算法

cross_entropy=-tf.reduce_mean(y_*tf.log(tf.clip_by_value(y,1e-10,1.0)))

train_step=tf.train.AdamOptimizer(0.001).minimize(cross_entropy)

rdm=RandomState(1)#通过随机数生成一个模拟数据集

X=rdm.rand(128,2)

Y=[[int(x1+x2<1)]for(x1,x2)in X]

tf.clip_by_value(t, clip_value_min, clip_value_max, name=None) :对tesor数据进行截断操作,应对梯度爆发或者梯度消失的情况

with tf.Session()as sess:

init_op=tf.global_variables_initializer()

sess.run(init_op)

#输出目前(未经训练)的参数取值

print"w1:",sess.run(w1)

print"w2:",sess.run(w2)

print"\n"

#训练模型

STEPS=5000

for i in range(STEPS):

start=(i*batch_size)%128

end=(i*batch_size)%128+batch_size

sess.run(train_step,feed_dict={x:X[start:end],y_:Y[start:end]})

if i%1000==0:

total_cross_entropy=sess.run(cross_entropy,feed_dict={x:X,y_:Y})

print("After%d step(s),cross entropy on all data is%g"%(i,total_cross_entropy)) #输出训练后的参数取值,运行结果如右图

print"\n"

print"w1:",sess.run(w1)

print"w2:",sess.run(w2)

神经网络·激活函数

Definition:Use a cascade of many layers of

nonlinear processing units for feature extraction and transformation.

Each successive layer uses the output from the previous layer as input. --Wikipedia 线性模型的最大特点是任意线性模型的组合仍然是线性模型,只通过线性变换,任意层的全连接神经网络

和单层神经网络没有任何区别,因此

非线性是深度学习的重要特性。

目前TensorFlow提供了7 种不同的非线性激活函数,常见的有:tf.nn.relu 、tf. sigmoid 和tf.tanh

ReLu(Rectified Linear Units)函数

Hard ReLU: g(x)=max(0,x)

Noise ReLU: max(0, x+N(0, σ(x))

该函数的导函数:g(x)'=0或1

S形函数( Sigmoid Function )

函数表达式和导函数:

双曲正切函数(tanh)

tanh(x)=2sigmoid(2x)?1,但tanh 是0均值的。

函数表达式:

神经网络· softmax

sigmoid、tanh 等将一个real value 映射到(0,1)的区间(也可以是(-1,1)),这样可以用来做二分类。

当遇到多分类问题时,我们可以使用softmax函数,假设有一个数组Z,Zj表示Z中的第j个元素,那么这个元素的Softmax值就是:它的优点是定义符合要求,计算十分方便

在神经网络的计算当中,经常需要计算按照神经网络的正向传播计算的分数S1,和按照正确标注计算的分数S2,之间的差距,计算Loss,才能应用反向传播。Loss定义为交叉熵, 它占的比重越大,这个样本的Loss也就越小,这种定义符合我们的要求。

当我们对分类的Loss进行改进的时候,我们要通过梯度下降,每次优化一个step大小的梯度,这个时候我们就要求Loss对每个权重矩阵的偏导,然后应用链式法则。那么这个过程的第一步,就是求Loss对score的偏导只要将算出来的概率的向量对应的真正结果的那一维减1就可以

举个例子,通过若干层的计算,得到的某个训练样本的向量是[ 1, 5, 3 ], 那么概率分别就是[0.015,0.866,0.117], 如果这个样本正确的分类是第二个的话,那么计算出来的偏导就是[0.015,0.866?1,0.117] = [0.015,?0.134,0.117],然后再根据这个进行back propagation就可以了。

Softmax 回归vs. 多个二元分类器

当类别数k = 2 时,softmax 回归退化为logistic 回归。这表明softmax 回归是logistic 回归的一般形式。当所

分的类别互斥时,更适于选择softmax 回归分类器,当不互斥时,建立多个独立的logistic 回归分类器更加合适。

"""Softmax."""

scores =[3.0,1.0,0.2]import numpy as np

def softmax(x):

return np.exp(x)/np.sum(np.exp(x),axis=0)

"""Compute softmax values for each sets of scores in x."""pass #TODO:Compute and return softmax(x)print(softmax(scores))#Plot softmax curves

import matplotlib.pyplot as plt x =np.arange(-2.0,6.0,0.1)

scores =np.vstack([x,np.ones_like(x),0.2*np.ones_like(x)])#vstack:Stack arrays in sequence vertically (row wise)plt.plot(x,softmax(scores).T,linewidth=2)plt.show()

softmax(x)函数应该返回一个形状和x 相同的NumPy array 类型。例如,当输入为一个列表或者一维矩阵时:

scores = [1.0, 2.0, 3.0]

应该返回一个同样长度(即3个元素)的一维矩阵:

print softmax(scores)

[ 0.09003057 0.24472847 0.66524096 ]

对于一个二维矩阵,如以下(列向量表示单个样本),例如:scores = np.array ([[1, 2, 3, 6],

[2, 4, 5, 6],[3, 8, 7, 6]])

该函数应该返回一个同样大小(3,4)的二维矩阵,如下:

[[ 0.090030570.002428260.015876240.33333333][ 0.244728470.017942530.117310430.33333333][ 0.66524096

0.97962921

0.86681333

0.33333333]]

每个样本(列向量)中的概率加起来应当等于1

Softmax 代码实现

运行结果:

神经网络·代价函数

神经网络模型的效果和优化的目标是通过代价函数(lost function),也称损失函数来定义的。代价

函数常用均方差代价函数,对于一个神经元(单输入单输出,sigmoid函数),定义其代价函数为:

其中y是期望的输出,a为神经元的实际输出。

训练神经网络通过反向传播代价,以减少代价为导向,调整参数。参数主要有:神经元之间的连接权重w,以及每个神经元的偏置b。调参的方式是采用梯度下降算法(Gradient descent),沿着梯度方向调整参数大小。w和b的梯度推导: 表示激活函数,z 表示神经元的输入。神经网络模型常用的激活函数

为sigmoid函数,因为sigmoid函数的性质,导致σ′(z)在z 取大部分值时会很小,会使得w 和b更新非常慢。

sigmoid 函数(还有tanh)有很多优点,非常适合用来做激活函数, 要解决这个问题,就可以更改代价函数,使用交叉熵(cross entropy)代价函数, 其中y为期望的输出,a为神经元实际输出。交叉熵刻画的是两个概率分布之间的距离。交叉熵代价函数同样有两个性质:(1)非负性,所以我们的目标就是最小化代价函数;(2)当真实输出a与期望输出y接近的时候,代价函数接近于0。

观察它的导数,没有σ′(z)这一项,权重的更新是受σ(z)?y这一项影响,即受误差的影响。

当误差大的时候,权重更新就快,当误差小的时候,权重的更新就慢。这是很好的性质。

因为交叉熵一般会与softmax 函数一起使用,所以TensorFlow 对这两个功能进行了统一封装,

并提供了tf.nn.softmax_cross_ebtropy_with_logits函数。

摘要:“礼”是荀学的核心观念,荀子对礼的深度结构作了多方面的论述。从人间层面看,当礼作为社会秩序的依据时,它的深度结构体现的是社会交往理性;从形上层面看,作为根源性的不易之理的礼,是一种“不为尧存,不为桀亡”的客观原则在宇宙万物之中的显现。荀子对礼的超越性的论证,重新确立了礼在人间的权威。与礼的深度结构相对应,礼的表层结构也经历了三个不同的发展阶段。 关键词:荀子;礼论:儒家;礼的本质 “礼”是荀学的核心观念,在《荀子》一书中,有关礼的判断甚多,或从礼的功用,或从礼的意义,或从礼的目的等等不同的方面,荀子把它作为社会法度,规范、秩序,对其起源作了理性主义的理解。在探讨礼的文质(深度结构与表层结构)关系中,他消解了道家对礼文的非难,强调了礼文对人的情感的规约作用,以及礼乐制度的度量分界作用;在礼的本质认识方面,他汲取了孔子对仁的道德情感的重视,消化了庄子对礼的形上学的追问,并将孟子的先验道德理性改造为社会交往理性。本文着重阐发荀子对礼的深度结构的论述,以此就教于方家。 一、礼的本质的两个层面 荀子论述礼之文时,是直接指向人性的,生活中的种种缘饰是为规约人性服务的。因而,在他看来,与礼之文相对应的礼之质是指“性”,礼文起着即美性、或“称情”的作用,但人的本质还有社会性的内容,与此相对应的礼之质,即“礼义”。这个“礼义”是独立于性情之外的“礼之理”,是相当于人的道德理性,它在人际交往中生成,同时作为礼的内在要求又规范着人的交往活动。 (一)作为度量分界的礼之质 据统计,《荀子》中“礼”字出现约309次,“义”字305次,“礼义”出现106次。这么高的频率,实在值得重视。不过,也有学者以为荀子所称之为“礼义”与“仁义”,基本上则只有“礼”与“仁”的内容或理念可说,缀于其后的两个“义”字,只起贞定仁、礼的价值意义的复词而已,并无“义之为义”的独立特性。即是说荀子只取了“义”的通用性,其所谓礼义、仁义、甚至分义,都只是通俗意义上的“礼的意义”、“仁的意义”、“分的意义”而已。 [1] 但是,事情并不这么简单。在荀子那里,礼义的重要性,我们可以从“义”的界定上得到印证。在《荀子·大略》中,“亲亲、故故、庸庸、劳劳,仁之杀也;贵贵、尊尊、贤贤、老老、长长,义之伦也;行之得其节,礼之序也。仁,爱也,故亲;义,理也,故行;礼节也,故成。”[2]在这里,义是与理相联系的,义是理性的代名词,人们讲贵贵、尊尊、贤贤、老老、长长,都是不同于亲亲的感情因素之外的理性使之然的,这种理性也是人之为人的本质规定,正是它才将人兽区别开来。 在荀子看来,人的活动性不是人的本质规定,因为水火也有,草木也具有人一样的生命,禽兽也有人一样的知觉,只有“义”即理性才为人所独有,它才是人的本质规定,正因为“人有气、有生、有知亦且有义,故最为天下贵也。”(《王制》)这样,义在荀子这里,成了人们道德之善的标志,因而具有终极性的价值。 “义”作为一种理性,它要求人们遵从秩序、谨守职分。所以,荀子认为“彼仁者爱人,爱人故恶人之害之也;义者循理,循理故恶人之乱之也。”(《议兵》)与“仁者爱人”相比,义则表现为遵从理性,反对破坏既定的社会秩序。在这种理性原则的指导下,“夫义者,所以限禁人之为恶与奸者也。……夫义者,内节于人而外节于万物者也,上安于主而下调于民者也。内外上下节者,义之情也。”(《强国》)正是这种理性原则,它可以用来限制禁止不合理性的恶与奸,也可以调适人的内在欲求与外在世界的关系,使内外上下之间和谐融洽。 以义为内核的理性,是人战胜自然的前提条件,荀子对人的这种理性充满了乐观之情。“人何以能群?曰:分。分何以能行?曰:义。故义以分则和,和则一,一则多力,多力则强,

诗梦江南,入画寻踪 ——长清区实验小学江南深度研学实践之旅 【课程简介】 一道水,一架桥,一支橹声,隽秀婉约的聚合了太多的历史文化。此次研学活动旨在让同学们了解祖国江南,同时感受一场从远古传说,到春秋的吴越文化,到南北朝的文人风骨,再到明清以及近代的大儒伟人的历史盛宴。活动中,同学们将一起寻访王羲之、蔡元培、鲁迅、周恩来等名人伟人故里,穿越历史,冶爱国之志,体悟文化魅力;一起走进园,欣赏宋代江南私家园林的秀美景观,探寻园林蕴含的文化涵;一起游历西湖,领略“淡妆浓抹总相宜”的如画美景;一起走进综合性人文科学博物馆博物馆、中国黄酒博物馆,全面了解历史文化。 【课程特色】 ●文化名镇江南风采 ●穿越时空触摸历史 【行程简表】

上午探访安昌古镇漫游小桥流水梦回江南水乡游历江南小镇,画笔描绘 第五天 下午乘坐高铁前往:车次G60东-西 15:22-19:48辅导员送站一次相聚一生情谊备注:因天气交通等原因,组委会保留调整活动顺序及个别项目的权力,保证活动总量不变。 【活动费用】 2900/人;包含火车(往返高铁)及活动期间所有的费用。 ?【人文积淀-理性思维】·第一天下午·钱塘江·六和塔 钱塘江潮被誉为“天下第一潮”,是世界一大自然奇观,它是天体引力和地球自转的离心作用,加上湾喇叭口的特殊地形所造成的特大涌潮。六和塔位于省市西湖之南,钱塘江畔 月轮山上,是中国现存最完好的砖木结构古塔之一。 小任务1:学生面对浩渺的钱塘江,接受审美教育,并结合手册提示,探究钱塘江大潮的在科学原理; 小任务2:学生走进六和塔,收集关于六和塔的传说故事,留下自己与六和塔最美的合照; ?【审美情趣-人文积淀】·第二天上午·西湖·省博物馆 西湖,是一首诗,一幅天然图画,一个美丽动人的故事,不论是多年居住在这里的人还是匆匆而过的旅人,无不为这天下无双的美景所倾倒。平湖秋月、断桥残雪、柳浪闻莺、花 港观鱼、雷峰夕照、双峰插云、南屏晚钟、三潭印月,西湖十景个擅其胜。省博物馆是省规 模最大的综合性人文科学博物馆,文物品类丰富,年代序列完整。 小任务1:集体创绘,全体学生齐动手,集体协作,面对美景,协作创作最美的西湖; 小任务2:走进博物馆,寻访国宝,找一找最能代表江南文化的文物,向小组同学分享并交流;

摘要荀子作为我国先秦诸子中杰出的思想家和政治家,其“隆礼重法”思想开儒法合流之先河,影响极为深远。笔者拟通过对“隆礼重法”的理论基础,礼法关系及礼德作用诸多问题的研究,着重辨析了荀子提出的“礼”“法”与孔、孟和商鞅所述的“礼”“法”概念的异同,并探讨了荀子思想与前代各派思想的区别与联系,力图通过本文对荀子政治法律思想的内涵进行初步的探寻。关键词荀子礼法思想礼法关系荀子堪称先秦后期儒家泰斗,其学术集儒家之大成,又采百家之长,是第一个将儒法合流的思想家。他一方面继承、发展和修正了儒家的“礼治”;另一方面又继承、发展和修正了法家的“法治”,并在新的封建基础上以“礼”为主,使礼、法统一起来,形成了“隆礼重法”的思想。从而为后来封建正统法律思想的确立奠定了基础。荀子“隆礼”中的“礼”不同于儒家传统中的“礼”。传统中的“礼”是维护“宗法制”和“世袭制”的,而荀子的“礼”则被改造成为维护封建官僚等级制的新礼。“重法”中的“法”也不同于法家传统中的“法”。传统中的“法”是指严刑峻法、暴力镇压,而荀子除提出了“法者,治之端也”的命题,把法看成是治理国家的首要条件外,还提出了反对“以族论罪”的思想,这比法家的“族诛连坐”的思想显然高出一筹。 一、荀子提出“隆礼”“重法”思想的理论基础(一)“化性起伪”的“性恶论”是荀子“隆礼”“重法”思想的逻辑出发点。荀子在《性恶》篇中指出“人性之恶,其善者伪也”;“今人之性,生而有好利焉;……合于犯分乱理而归于暴”。显而易见,荀子所说的人性本原就是天生的“好利”“疾患”及其他的欲望,“纵人之性,顺人之情”就会导致社会秩序混乱,从而滋生罪恶。在此基础上,他进一步指出“恶”是由人的“性情膨胀、发展而导致的,这就为政治控制必要性提供人性根据。荀子还从“苟无之中者,必求于外“的思想推断出人是可以改变人性中恶的因素,人为地培养成善的本性。这就要通过道德教化和法律手段来使人们改变恶性,既所谓的“化性起伪”。故此,“化性起伪”的“性恶论”是荀子“隆礼”“重法”思想的逻辑出发点。荀子认为,正是由于人的欲望和情性才有可能导致邪恶,所以应该重教以化之,隆礼以节之,立法以禁之。(二)“明于天人之分”是荀子“隆礼重法”思想的社会基础。在荀子之前,有许多大儒先哲探讨过有关天人关系的一些问题,但既不系统也不明确。荀子则明确指出自然界万物变化都是有规律的,“天行有常。不为尧存,不为桀亡”。人类的吉凶祸福,国家的治乱兴衰都是认为造成的,与天无关,因而要“明于天人之分”。这一命题的提出是对于天人关系的认识问题上一次理论性飞跃。“明于天人之分”才能明于阶级之分,这正是荀子提倡“隆礼重法”的社会基础。既然天人可以相分,阶级自然可以相分,人们分属于不同的等级或者群体,乃是普遍的现象。若是以经济和社会地位作为划分标准,则有公卿、士大夫和庶人之别,犹如后来所说的奴隶主、自由民、奴隶等阶级;若以文化素养和道德为标准划分,则有君子和小人的区别,贵族中有君子和小人,庶人中也有君子和小人;即使同为儒者也以不同素质和才能划分为大儒、雅儒、俗儒等;若以职业标准来衡量,全体民众则可分为士、农、工、商“四民”等等。每一个人总是分属于某一个等级或者群体。荀子认为,人类为了战胜自然就必须组成群体,形成社会。社会中各个社会成员必须分工合作,各守本分;否则就会产生争乱,争乱就会导致穷困衰微。所以,为了明确和维护社会成员之间的这种社会分工和等级制度就必须设立“礼”。而由于人性本恶,就必须制定带有强制性的“法”。使本恶的人性“明礼义以化之,起法正以治之,重刑罚以禁之”,从而达到“使天下皆出于治,合于善”的目的。由此可见,荀子在哲学上的“明于天人之分”的命题,正是他明于分辨人的等级和群体,从而提倡以礼法治理国家的政治思想的理论基础。二、荀子“隆礼重法”思想中的礼法关系荀子“隆礼”中的“礼”首先是指区分人的等级的标准。“礼者,贵贱有等,长幼有差,贫富轻重皆有称者也”(《富国》),阶级、等级的产生和演化同社会生产力的发展状况及由其决定的生产关系息息相关。在荀子的时代,人们还不可能认识到这一点,而把它归结为圣王“分割等异之”。也就是说,古代先王用名分治理民众,用等级对他们加以区别。所以使民众有的人受到封赏,有的人受到贬罚;有的人俸禄优厚,有

摘要:人们通常因《老子》第三十八章的内容,将老子视作反礼的代表人物。但是,礼有形式与内容(即礼之文与礼之质)两个层次,从《老子》文本看,老子所反对的是礼的形式,而不是礼的内容。他重视“质真若渝”的礼之质,拒斥生活中的种种装饰、种种疯狂。他对“因名而知止”的交往理性的强调,对“慈、俭、不敢为天下先”的礼学精神的阐发,都表明了他的思想与礼学之间有着深刻的一致性。关键词:老子;礼学;礼论;道家人们通常因《老子》第三十八章的内容,将老子视作反礼的代表而论述。但《礼记·曾子问》中的老聃深于礼数,且言孔子问礼于老聃,由此引发了几种不同的判断。或以为孔子所问礼的老聃,非着《道德经》的老聃,宋代叶适、清人汪中以及二十世纪的疑古派学者多持这种观点。或认为孔子所问礼的老聃与着《道德经》者为同一人,“知礼乃其学识,薄礼是其宗旨。”[1]詹剑峰、吕思勉、徐复观等持此观点。将个人的学识与学术主张区分开来,这确实一种洞见,且也是学术史中一种深有影响力的观点。本文在研读《老子》文本的基础上,认为礼有形式与内容(即礼之文与礼之质)两个层次,从《老子》文本看,老子所反对的是礼的形式,而不是礼的内容,并试图重新检视老子所论及的礼学内容。一、“质真若渝,大白若辱”的礼质论在《老子》八十一章中,直接谈到礼的有两章,即通行本三十一章及三十八章。在三十一章中,涉及到礼两方面的内容,一是礼中的方位,二是方位的象征意义。“君子居则贵左,用兵则贵右。”“吉事尚左,凶事尚右。”方位问题在礼学中有着特别重要的意义,孔子称,“不学礼,无以立。”(《论语·季氏》)“不知礼,无以立也。”(《论语·尧曰》)刑昺把礼解释为立身之本,这是说不知礼的人,没有办法立身处世。其实立也是人在日常行事中所能占据的方位问题。《通典·凶礼二》引郑玄语:“礼者在于所处”。所以,现代有学者称,所处,就是指门内门外之治,包括各种关系(人与自然的关系亦在其中),包括各人在社会各种关系、各个场合中的地位,人之所以立,国之所以治,事关重大。[2] 在老子看来,方位除了通常表示处所的意思之外,它还有更深层的象征意义。所谓“偏将军居左,上将军居右,言以丧礼处之。杀人之众,以悲哀莅之,战胜以丧礼处之。”(《老子》第三十一章,以下只注章序。)在这里,他主要讲方位的象征意义,虽然讲到了“以丧礼处之”,但并不是讲丧礼的仪节,而是藉丧礼表达对战争为人类带来惨烈灾难时流露内心戒惧审慎的哀戚心情,这就在一定程度上深入到了礼之质的问题,即指出战争方位仪式中的深层含义,而不是叙述战争仪式的具体规定。在三十八章中,有三句话明确地提到礼,且都是从否定的层面论及的,所谓“上礼为之而莫之应,则攘臂而扔之。故失道而后德,失德而后仁,失仁而后义,失义而后礼。夫礼者,忠信之薄,而乱之首。”正是这种激烈的反礼的态度,使得人们将老子看作是一个礼的绝对定否者。但是,任何人都不可能脱离自己的时代,一个被礼——无论是以扭曲的形态还是常态浸润的时代,老子同样摆脱不了礼对他的影响,只是他对礼的思考,已没有为礼之文所局限,而是直指礼之质。因此,今人陈鼓应先生认为,所谓“夫礼者,忠信之薄,而乱之首。”并非对礼的否定,而是对那个时代的动乱发出沉痛的呼唤,反映在周文凋敝的历史背景下,如何重建社会人伦,这是对一个时代的重大课题进行的深刻反省。[3][!--empirenews.page--]如何重建人伦,以调适礼崩乐坏时代的人际关系,确实是老子要作反省的问题。在《韩非子·解老》中,韩非接受了荀子的“称情立文”的礼学理论,称“礼薄”是指“父子之间,其礼朴而不明”(《韩非子·解老》),而礼的致乱之由,则与荀子的制礼理论恰为相反,荀子以为圣人制礼是为了“定分”而使人们各守其分,消弭争端。韩非则以为为礼是为了人心的安顿,但礼却依靠名发来确定人们应该承担的责任,所以礼是致争乱的根源。所谓“今为礼者事通人之朴心,而资之以相责之分,能毋争乎?有争则乱,故曰:‘夫礼者,忠信之薄也,而乱之首乎。’”(《韩非子·解老》)在这里,韩非子实际上是用荀子的理论来解释老子,与老子本身是有差异的,因为《老子》书中,谈到“情”的地方几乎没有,韩非了却提出“礼为情貌者也,文为质饰者也。夫君子取情而去貌,好质而恶饰。”(《韩非子·解老》)不过,提出老子对于礼是“好质而恶饰”则适足以引人深思。在《老子》第八十一章中,老子标举“信言不

“研学旅行”实施方案 一、项目实施背景 从2013年发布《国民休闲旅游纲要》到2016年的《关于推进中小学生研学旅行的意见》,国家教育部等多部门发文要求大力推进研学旅行。研学旅行有利于促进学生培育和践行社会主义核心价值观,激发学生对党、对国家、对人民的热爱之情;有利于推动全面实施素质教育,创新人才培养模式,引导学生主动适应社会,促进书本知识和生活经验的深度融合;有利于加快提高人民生活质量,满足学生日益增长的旅游需求,从小培养学生文明旅游意识,养成文明旅游行为习惯。近年来,各地积极探索开展研学旅行,部分试点地区取得显著成效,在促进学生健康成长和全面发展等方面发挥了重要作用。二、定位与宗旨 目前大多数研学旅行还处在研究开发状态,良莠不齐,市场认可度不够,家长热度不高(尤其省内)。这是我们的机遇,也是挑战,我们的定位是要打造出一个学校认可、家长认可、学生认可的研学品牌,让学生在研学中学到东西。 三、具体实施 (一)方案A:纯旅游研学 本方案以若干旅游景点为研学地点,前期采取跟旅行社合作的方式(合作方式有待探讨),研学的核心(课件+“内容”)内容采取跟大学历史系或者旅游系的老师合作。 该方案的优点:该方案采用跟旅行社合作,研学路线可以借用

旅行社的优势,资源充分整合,老师和家长的路线选择多,可以极大丰富学生的课外知识,并且可以开展夏令营和冬令营活动。缺点是要综合考虑各个年龄段的学生,路线过多,会导致前期工作准备不够充足。 方案细节初步安排如下: 1、前期工作(3月20日-3月30日): (1)与某个旅行社达成合作关系(目前有合作意向的有康辉旅行社); (2)与某个大学的历史或者旅游系老师达成合作关系,负责研学核心内容的开发,包括路线的选择和内容的开发 (3)完成计划的策划和确定具体实施细节。 2、中期工作(4月1日-5月30日) (1)4月1日-4月15日与旅行社和老师确定最终的研学路线; (2)4月15日-5月30日一个半月的时间根据最终具体的研学路线,来做具体的研学课件和研学内容,研究出研学到底应该让学生学到什么,怎么保证学生能学到这些; (3)同时根据最终确定的研学方案做好定价方案,在这个过程中要充分进行调研,进学校、访家长,做到收费合理; (4)根据做好的方案做好线上推广,把做好的资料全部上传到线上,可以参考北京世纪明德。

几种深度学习工具比较 摘要自AlphaGO打败人类顶尖职业围棋手李世石以来,人工智能和深度学习一直是学术界、工业界的热点。本文针对目前市场上存在的多种深度学习工具特点进行了比较,最后提出了相关的使用建议,能够为相关的从业人员提供一定的参考。 关键词深度学习;工具;特点 前言 自AlphaGO打败人类顶尖职业围棋手李世石以来,国内外各大科技公司(谷歌、亚马孙、百度、阿里、腾讯、小米)纷纷将人工智能、深度学习定为未来的发展重心[1]。目前市面上主流的开源学习框架有Caffe、TensorFlow、Deeplearning4j等,通过深度学习框架开发人员可以不用去关注底层实现,不用去重复造轮子,专注于业务本身,能够大大提高工作效率。下面首先了解一下各个深度学习框架的特点。 1 深度学习工具比较 主流深度学习框架[2]如下: Brainstorm:由瑞士人工智能实验室IDSIA维护,支持语言有C++、python,支持系统有Linux、Windows。Caffe:由加州伯克利分校视觉与学习中心维护,支持语言有C++、python、Matlab,支持系统有Linux、Mac OS X、Windows。Chainer:由日本Preferred Networks公司維护,支持语言为python,支持系统有Linux、Windows。ConvNetJS:由斯坦福大学博士生Karpathy维护,支持语言有Java、JavaScript、python,支持系统有Linux、Windows。Deeplearning4j:由Skymind 公司维护,支持语言有Java、Scale、Clojure,支持系统有Linux、Mac OS X、Windows、Android。Microsoft Cognitive Toolkit(CNTK):由微软研究院维护,支持语言有C++、python、BrainScript ,支持系统有Linux、Windows。Marvin:由普林斯顿大学视觉工作组维护,支持语言有C++、python,支持系统有Linux、Windows。MXNet:由CXXNet项目组维护,支持语言有C++、python,支持系统有Linux、Windows、Android、ios、Mac OS X。Neon:由Nervana Systems公司维护,支持语言为python,支持系统有Linux、Windows。PaddlePaddle:由百度公司维护,支持语言有C++、python,支持系统有Linux、Mac OS X。TensorFlow:由谷歌公司维护,支持语言有C++、python、R、Java、Swift,支持系统有Linux、Mac OS X、Android、ios。Theano:由蒙特利尔大学理工学院维护,支持语言为python,支持系统有Linux、Windows、Mac OS X。Torch:由FaceBook公司维护,支持语言有Lua、C,支持系统有Linux、Windows、Mac OS X、Android、ios。 笔者认为比较各类语言不能仅仅看其支持的语言类型、支持的操作系统多

江南营-江南深度研学之旅(1)

————————————————————————————————作者:————————————————————————————————日期:

诗梦江南,入画寻踪 ——长清区实验小学江南深度研学实践 之旅 【课程简介】 一道水,一架桥,一支橹声,隽秀婉约的杭州绍兴聚合了太多的历史文化。此次研学活动旨在让同学们了解祖国江南,同时感受一场从远古传说,到春秋的吴越文化,到南北朝的文人风骨,再到明清以及近代的大儒伟人的历史盛宴。活动中,同学们将一起寻访王羲之、蔡元培、鲁迅、周恩来等名人伟人故里,穿越历史,陶冶爱国之志,体悟文化魅力;一起走进沈园,欣赏宋代江南私家园林的秀美景观,探寻园林蕴含的文化内涵;一起游历西湖,领略“淡妆浓抹总相宜”的如画美景;一起走进综合性人文科学博物馆浙江博物馆、中国黄酒博物馆,全面了解浙江历史文化。 【课程特色】 ●文化名镇江南风采 ●穿越时空触摸历史 【行程简表】 时间课程安排课程主题课程链接 第一天上午乘坐高铁前往杭州:车次G63 济南-杭州东 07:23-11:53辅导员接站读万卷书行万里路下午参观钱塘江、六和塔看天下第一潮登镇潮六和塔追寻江畔的历史故事 晚上研学课程指导分组讨论课程,研学收获分享 实践-辅导员指导学生完成课程手 册 第二天上午 游历杭州西湖置身如画美景感受西湖柔情参观苏堤、孤山、曲院风荷 浙江博物馆参观历史展品考察浙江文化感受历史文化的沉淀 下午灵隐寺、飞来峰登山览胜景寺宇悟佛心登山参观庙宇,了解佛教文化 晚上研学课程指导分组讨论课程,研学收获分享实践-辅导员指导学生完成课程手册 第三天上午探访鲁迅故里探寻书中世界亲访三味书屋追寻鲁迅先生的足迹 下午 游览沈园漫步江南园林,探寻文化内涵 人文-体味江南风情/建筑-江南园林建 筑风格 参观黄酒博物馆参观历史文物体悟江南魅力历史-绍兴历史文化 晚上 大善塔 仓桥直街 漫步古城小道欣赏绍兴夜色实践-实地感受,见景抒情 第四天上午书圣故里历史街区历游文人旧地感受文化魅力人文-文人旧所、大家荟萃

第一单元 课题人与自我?我自信,会成功 学习目标正确认识自我,能够说出自己的优点和不足;增强自我调控、承受挫折、适应环境的能力;了解树立自信心的方法,培养健全的人格和良好的心理素质;提高心理健康水平,增强自我教育能力,形成健康、自信的人生观。参考主题(1)我自信,会成功;(2)克服考试焦虑;(3)消除孤独感。 实践方式心理测试;收集资料;手工制作。 方法引导发表意见的技巧;如何对调查结果进行统计与分析。 学科整合与心理健康教育、品德与社会、语文等学科整合。关注心理健康,形成健康的生活态度;善于发现其他同学身上的优点并虚心学习;学习名人名言,领悟其深刻含义,并激励自己;进行小制作设计。 课时安排5课时 教学流程 第一课时 研究准备 我们一天天地长大,从妈妈怀里的婴儿,长成了少年。想想自己在成长过程中有哪些烦恼?你是怎么解决的? 同学们根据自己的兴趣自主确定设计研究方案,其方法一般是: 1、我的烦恼及解决的办法 2、我自信,会成功 3、消除孤独感 以上方案进行研究、讨论、尝试初步建立印象。 第二课时 我自信,会成功 一、研究实施 自信对我们走向成功非常重要。今天,就我们一起通过探究活动来寻找自信,增强自信! 二、方法与引导: 发表意见的技巧 1、态度诚恳、谦逊。多采用“我个人认为”、“我目前的想法是”等表达方式; 2、不能只发表否定性意见,对好的方面要充分肯定; 3、对事不对人,只针对事情发表意见; 4、通过举例等方式,引导他人发现存在的问题; 5、避免个人垄断话题,邀请不善于发表意见的组员参与讨论。 三、“我自信,会成功”研究方案 主题名称研究时间 研究目的1、正确认识自己,发现自己的优点与不足 2、

XXXX中小学研学旅行课程质量管理 一、指导思想 全面贯彻党的教育方针,以《国家中长期教育改革和发展规划纲要》《基础教育课程改革纲要》《国民旅游休闲纲要》为指导,认真落实立德树人的育人目标,以培养学生的综合实践能力和创新能力为核心,以学生发展为本,全面提升学生综合素质。 二、课程设计原则与课程内容 (一)课程设计原则 1.开放性原则:充分利用校内外资源体现目标的多元性,内容的广泛性,时间空间的广域性,展示的多样性和评价的灵活性。 2.整合性原则:以研学旅行资源及教学内容、方法和师资情况为基础,结合学生认知能力和社会实际整合开发课程,保证课程的时效性,实现课程的生成性。 3.体验性原则:尊重学生主体地位,以人为本,以学生活动为主,突出体验实践,培养学生创新精神和实践能力,变知识性的课堂教学为发展性的体验教学。 4.生活性原则:着眼于生活实际的观察视角,把学生从最简单熟悉的生活层面引领到更加广阔的社会生活舞台,加强教育的生活性,突出生活的教育化程度。 (二)课程内容

1.了解社会状况。通过研学旅行活动,了解当前社会实践活动中迫切需要解决的现实问题,如交通、卫生、网络、饮食、环境、动植物保护以及人口老龄化、就业压力、就医入学等现实状况。 2.探究学科问题。包括物理、化学、生物、地理、数学、语文、英语、政治、历史、通用技术、信息技术、体育、音乐、美术以及学科交叉知识的探究,发现一些值得研究的新问题。 3.前沿科技应用。在研学活动中,学习和研究前沿科学技术在生活、生产实践和科学实践领域的应用。如3D打印、AR/VR、无人机、无人驾驶等。 三、课程实施 (1)课程开发要立足教育性。 要使研学旅行做到立意高远、目标明确、活动生动、学习有效,避免出现“只旅不学”或“只学不旅”的现象,就必须把教育性原则放在首位,寻找适切的研学主题和课程教育目标,深度促进研学旅行活动课程与学校课程的有机融合。作为中小学教育教学实践的重要组成部分,研学旅行的活动课程既要结合学生身心特点、接受能力和实际需要,又要注重知识性、科学性和趣味性。 在课程目标的制订上,要与学校的综合实践活动课程统筹考虑,活动中的知识性目标、能力性目标、情感、态度、价值观领域的目标和核心素养的目标等等,都应该是落实课标的核心要点。 (2)研学旅行课程突出实践性 正是我国推动全面实施素质教育的一种重要创新。研学旅行的课

论荀子的天人观对其美学思想的影响 翟箫 (陕西师范大学,陕西西安710062) 摘要:荀子的天人观是其哲学思想的基础和重要方面,与荀子的美学思想有着密不可分的关系。本文首先概述了荀子的天人观,之后从荀子的美学思想中挑出了三个方面分别讨论它们同荀子的天人观之间的联系,这三个方面分别是荀子对于人的审美需求的态度、对卜筮祭礼的看法,及其乐论。总而言之,荀子以一种唯物主义、理性主义的态度建立起了他的一套十分具有积极意义的天人观理论,因而在谈到同审美相关的各种问题时,荀子能够排除迷信思想和神秘主义的观念,肯定人的审美需求的合理性,注意到单纯欲望的享乐同审美享受的异同,别关注艺术审美活动在审社会生活中的能动作用。 关键词:荀子;天人观;性伪;礼乐 中图分类号:K01文献标识码:A 文章编号:1673-2111(2011)02-0143-02 荀子作为孔子之后儒家学说的重要代表人之一,他在对他之前的诸子百家学说批判的基础上又进行了继承和发扬,是一位先秦哲学的集大成者。在美学问题上,荀子仍然是孔子美学的继承者和发挥者。荀子坚持了孔子所开创的将艺术同政治教化紧密结合的传统,继承了孔子强调的“和”的美学思想,同时荀子也有着自己的发挥。荀子的天人观是其哲学思想的基础和重要方面,与荀子的美学思想有着密不可分的关系。 1概述荀子的天人观 荀子在《天论》篇的一开始就说“天行有常,不为尧存,不为桀亡。”这即是说自然界是存在着自身的客观规律的,并且这一规律是不按照人的客观意志与愿望而转移的。在荀子看来,自然界的存在有其自身的客观规律,并且自然界还是无意识,无目的的。 荀子特别强调要“明于天人之分”。他批判了治乱由天定的传统迷信和宿命论思想,强调决定人类社会和国家政治的治乱的关键在人而不在天。荀子认为天有天的职分,人有人的职分,应当各尽其职。人不应该盲目的崇拜和畏惧自然界的力量,应当发挥自身的主观能动性,充分利用自然界的客观规律,对自然界进行改造,从而为人类谋福祉。这便是荀子著名的“制天命而用之”,人定胜天的思想。 以上便是荀子在提到天人关系的问题时所持的基本观点。 2荀子的天人观与其对人的审美需求的态度 荀子在《性恶》篇中说“若夫目好色,耳好听,口好味,心好利,骨体肤理好愉佚,是皆生于人之情性者也;感而自然,不待事而后生之者也”。由此可见,在荀子看来人们对美的要求是人性本有的欲望的一种,是先天便有之的,而非后天习得的。在这一观点的基础上,荀子肯定了人对美的要求的合理性,并对墨子对一切艺术和审美活动采取否定态度的观点进行了反驳,他在《富国》篇中明确指出“我以墨子之‘非乐’也,则使天下乱;墨子之‘节用’也,则使天下贫,非将堕之也,说不免焉。墨子大有天下,小有一国,将蹙然衣粗食恶,忧戚而非乐。” 荀子对人的审美需求会有这样的观点是同他的天人观念分不开的。荀子在谈到天人关系的问题时特别地强调要“明于天人之分”,在讨论关于人本身和关于审美的问题时荀子同样地强调了天人之分。首先,在荀子看来人生来就是充满着各种各样的欲望的,这是人的自然本性,而礼仪道德则是后天形成的。荀子说“人之性恶,其善者伪也”,又说“性者,本始材朴也;伪者,文理隆盛也。无性则伪之无所加;无伪则性不能自美。”这里就存在着一个性伪之分,也就是先天与后天,自然与人为的区分。因而,荀子便将人的审美需求与审美感受能力划归为了人的自然本性,这虽然从根本上肯定了人对美的要求的合理性,但却仅仅地将人对美的要求看作了一种自然发生的欲望,没有看到其社会的历史的一面。 然而,荀子在将人本身作为审美的对象时,又提出了更为合理的观点。荀子在《相人》篇中说“相人,古之人无有也,学者不道也。……故相形不如论心,论心不如择术;形不胜心,心不胜术;术正而心顺之,则形相虽恶而心术善,无害为君子也。形相虽善而心术恶,无害为小人也。”从这里看出,荀子对于人的先天相貌并不十分看重,认为一个人的后天道德品行如何,才是评判一个人的真正标准。 3荀子的天人观与其对卜筮祭礼看法 荀子虽然认为人之本性就是各种各样的自然生理欲望,像尊君、孝亲、守法、循礼等等品质本来就不是人之本性所具有的。但正因为人之本性是这许多种无止尽的自然欲求,所以才有必要用礼义对人性进行改造和节制。荀子在天人关系上强调要“明于天人之分”,在讨论人性问题时同样强调性伪之分;荀子在天人关系上强调人应“制天命而用之”,在讨论人性问题时则强调用不应让人无限制地去追求自然欲望的满足,而应当用后天人为的礼仪来节制和规范人无限制的欲望。 荀子在《礼论》中说“故礼者养也。刍豢稻梁,五味调香,所以养口也;椒兰芬苾,所以养鼻也,雕琢刻镂,黼黻文章,所以养目也;钟鼓管磬,琴瑟竽笙,所以养耳也;疏房檖貌,越席床第几筵,所以养体也。”在荀子看来“礼”是用来“养”人之欲的,即是说通过礼来节制和规范人的欲望从而使欲望得到应有程度的满足,而这种满足中显然包括了对人的审美需要的满足。荀子之后又说“礼者,谨于治生死者也。生、人之始也,死、人之终也,终始俱善,人道毕矣。故君子敬始而慎终,终始如一,是君子之道,礼义之文也”,还说“事死如事生,事亡如事存,状乎无形,影然而成文。”可以从这些语句看出,正是由于人们对生与死怀抱着尊重敬畏之情,因而使得“礼”带有了审美的属性。在荀子之前,孔子对人的生死所抱有的观点是“未能事人,焉能事鬼”,“未知生,焉知死”,这实际上是对传统迷信思想中的鬼神之事采取了一种存而不论的态度。孔子在天人观方面更是一位天命论者,将“天”看作是有意志、有道德属性的人格神,看作是宇宙和人类社会的神秘的主宰。荀子 文学界·历史回廊 143 ·· 文学界

深度学习基础知识整理 Without deviation from the norm,progress is not possible(不偏离常规,就无法取得进步-Frank Zappa)

第一课:数学分析与概率论 Taylor展式及其应用、凸函数、jensen不等式、常见分布与共轭分布 第二课:数理统计与参数估计 Chebyshev不等式、大数定理、小数定理、中心极值定理、矩阵计算、最大似然估计 第三课:矩阵和线性代数 从马尔克夫模型看矩阵、特征向量、对称矩阵、线性方程 第四课:凸优化 凸函数、共轭函数、凸优化、Lagrange对偶函数 第五课:回归 高斯分布、Logistic回归、梯度下降、特征选择与过拟合欠拟合关系 应用方向:线性回归、Logistic回归实现和分析 第六课:梯度下降与拟牛顿法

梯度下降算法、自适应学习率、拟牛顿、LBFGS 应用方向:自适应学习率代码实现和参数调试分析 第七课:最大熵模型 熵、相对熵、信息增益、最大熵模型、Softmax回归 应用方向:独立成分分析ICA求解盲源分离BBS问题 第八课:决策树和随机森林(蒙特卡罗)ID3、C4.5、CART、Bagging 研究方向:使用随机森林进行数据分类(蒙特卡洛) 第九课:SVM 线性可分支持向量机、软间隔、核函数、SMO 研究方向:使用SVM进行数据分类 第十课:聚类 K-means/K-Medoids、密度聚类、谱聚类、 应用方向:K-means、谱聚类代码实现和参数调试分析

第十一课:推荐系统 相似度量方案、协同过滤(User-based/ltem-based)、PCA/SVD、随机游走 应用方向:协同过滤用于商品推荐、SVD隐变量的推荐 第十二课:提升 梯度提升决策树GBDT、Adaboost、前向分步算法 应用方向:Adaboost与随机森林(蒙特卡洛)结合、用于数据分类 第十三课:EM算法和GMM EMM算法、GMM、主题模型pLSA 应用方向:分解部分观测数据的男女身高、图像分解 第十四课:普斯贝叶斯和贝叶斯网络初步 有向分离、(隐)马尔科夫模型HMM 第十五课:主题模型用EM算法计算pLSA、Dirichiet分布、LDA、Gibbs采样

荀子·礼论(2)全文 大意 礼最突出三种本原:一为天,二为先祖,三为君师。荀子认为,天子的种种礼,突出的是尊敬本原和实用。两者结合,就成为天子礼的表现形式,是最盛大的礼。 凡礼,始乎棁,成乎文,终乎悦校。故至备,情文俱尽;其次,情文代胜;其下,复情以归大一也。天地以合,日月以明,四时以序,星辰以行,江河以流,万物以昌,好恶以节,喜怒以当,以为下则顺,以为上则明,万变不乱,贰之则丧也。礼岂不至矣哉!立隆以为极,而天下莫之能损益也。本末相顺,终始相应,至文以有别,至察以有说。天下从之者治,不从者乱;从之者安,不从者危;从之者存,不从者亡。小人不能测也。 礼之理诚深矣,坚白、同异之察入焉而溺;其理诚大矣,擅作典制辟陋之说入焉而丧;其理诚高矣,暴慢、恣睢、轻俗以为高之属入焉而队。故绳墨诚陈矣,则不可欺以曲直;衡诚县矣,则不可欺以轻重;规矩诚设矣,则不可欺以方圆;君子审于礼,则不可欺以诈伪。故绳者,直之至;衡者,平之至;规矩者,方圆之至;礼者,人道之极也。然而不法礼,不足礼,谓之无方之民;法礼足礼,谓之有方之士。礼之中焉能思索,谓之能虑;礼之中焉能勿易,谓之能固。能虑能固,加好之者焉,斯圣人矣。故天者,高之极也;地者,下之

极也;无穷者,广之极也,圣人者,道之极也。故学者固学为圣人也,非特学为无方之民也。礼者,以财物为用,以贵贱为文,以多少为异,以隆杀为要。文理繁,情用省,是礼之隆也。文理省,情用繁,是礼之杀也。文理情用相为内外表里,并行而杂,是礼之中流也。故君子上致其隆,下尽其杀,而中处其中。步骤驰骋厉鹜不外是矣,是君子之坛宇宫廷也。人有是,士君子也;外是,民也;于是其中焉,方皇周挟,曲得其次序,是圣人也。故厚者,礼之积也;大者,礼之广也;高者,礼之隆也;明者,礼之尽也;《诗》曰:礼仪卒度,笑语卒获。此之谓也。 大意 作者认为礼的发展是有过程的,最完备的礼是其形式尽善尽美地代表了人的情感。这样的礼人们是乐于接受的。礼的作用其大无比,礼所含的道理其深无比,它是为人的最高准则。 礼者,谨于治生死者也。生,人之始也;死,人之终也。终始俱善,人道毕矣。故君子敬始而慎终。终始如一,是君子之道,礼义之文也。夫厚其生而薄其死,是敬其有知而慢其无知也,是奸人之道而倍叛之心也。君子以倍叛之心接臧谷,犹且羞之,而况以事其所隆亲乎!故死之为道也,一而不可得再复也,臣之所以致重其君,子之所以致重其亲,于是尽矣。故事生不忠厚不敬文,谓之野;送死不忠厚不敬文,谓之瘠。君子贱野而羞瘠,故天子棺椁十重,诸侯五重,大夫三重,士再重,然后皆有衣衾多少厚薄之数,皆有翣菨

青海省研学旅游发展SWOT分析 (一)优势(strength) 1.旅游资源丰富多样 截至目前,全省旅游A级景点多达106处,其中5A级3家;4A级19家,3A级65家,2A级19家。自然与人文旅游资源丰富多样,著名的景区有青海湖景区,金银滩景区、祁连风光旅游区、茶卡盐湖旅游区等,人文旅游资源有藏传佛教塔尔寺景区、互助土族故土园景区、原子城、湟源丹葛尔古城等,独特的地质条件与多样的民族风情为青海省开展研学旅游提供了强大的物质基础。 2.地质旅游资源优势明显 青海省地域辽阔,在漫长的地球演化过程中,在内外力地质共同作用形成、发展并遗留下来类型众多的不可再生的地质资源,青海省凭借丰富的旅游地质资源,现已获批多处地质资源集中分布区开发建设为国家地质公园,知名的有坎布拉国家地质公园、互助北山国家地质公园、贵德国家地质公园、昆仑山国家地质公园等,形成了红色砂砾岩的丹霞地貌、冰蚀地貌景观、高原岩溶景观、古地震鼓包遗迹等地貌景观,除了具有不可估量的科研价值外,还具有开展研学旅游,建设研学旅游教育基地的广阔前景。 (二)劣势(weakness) 1.景区间通达性差 作为研学旅游目的地其集聚性较差,包尤其是潜在的旅游资源,重要景区间的连接道路、景区内的交通体系、景区的道路标示系统等有待进一步加强,与现代“快旅慢游”需求和“井喷式”增长严重不匹配,缺乏全面系统的交通网将研学旅游景区串联起来。旅游各景区发展不平衡,基础设施、服务配套远不能适应人民群众日益增长的多旅游需求。 2.旅游季节差异性明显 旅游季节性是旅游活动的固有特征,青海省旅游季节性明显,由于气候因素旅游旺季集中在夏季,导致旺季游客量多,而到了冬季,气候比较寒冷,草木凋零,研学旅游开展较为困难、使得旅游景点、宾馆饭店、旅行社等资源和设施大量闲置、出租率下降、运营成本上升,旅游企业为争夺客源进而采取降价竞争,导致经济效益低下。 (三)机遇(opportunity) 1.政策支持焕发旅游活力 近年来,一系列决策为全省旅游业提档升级提供了强大的政策支撑。一是《国务院关于促进旅游业改革发展的若干意见》以及全国旅游发展“515战略”,将旅游业定位为战略性支柱产业和人民群众满意的现代服务业和实现脱贫的重要产业,破除了旅游发展的认识障碍和制度障碍;二是青海省委、省政府出台了《关于促进旅游业改革发展的实施意见》、《2015年—2020年青海省旅游业行动计划》,将推动县域旅游业发展提向更高层次、更大格局迈进;三是地方政府对各地旅游业的重要战略部署。随着研学旅游的深入开展,其巨大的经济效益、社会效益和生态效益毫无疑问将得到各级政府的高度重视,不断获得政策支持力度,实现研学旅游又好又快发展,引领“旅游+”产业新风向。 2.研学旅游竞争力将持续增强 随着旅游的飞速发展,我省已形成一批骨干旅游企业,将继续提升旅游市场主体的竞争力。旅游发展环境全面改善,形成设施齐全、功能配套、优质高效的

为什么用TensorFlow

常用深度学习框架?深度学习框架 ?TensorFlow ?PyTorch ?Keras ?MXNet ?Torch ?Caffe ?Theano ?Deeplearning4j ?BigDL

主要接口语言 ?Python ?TensorFlow、PyTorch、Keras、MXNet、Theano、BigDL ?C++ ?Caffe ?Java/Scala ?Deeplearning4j ?BigDL ?MXNet ?Lua ?Torch

框架现状 ?目前主流框架: ?TensorFlow ?PyTorch ?Keras ?MXNet ?Caffe: Caffe的使用主要是编写配置文件,如果需要自定义操作需要用C++写扩展层。对于科研来说,框架的灵活性较弱。但对于开发来说,在桌面程序中嵌入Caffe较为方便。 ?历史主流框架: ?Torch: 由于Lua科学计算生态圈较弱,现用Torch人较少,而用PyTorch的人较多。 ?Theano: 已停止维护 ?冷门框架: ?Deeplearning4j ?BigDL

为什么用TensorFlow ?主流框架: ?需要大量使用现有的库,例如对于视觉任务,经常需要使用预训练的几百层的神经网络,自己实现的开发和计算成本太高。因此需要使用具有较多轮子的主流框架。 ?过滤结果:TensorFlow、PyTorch、Keras、MXNet、Caffe ?Python接口: ?科研场景需要强大的科学计算生态圈支撑,如灵活的矩阵运算库、易用的数据可视化工具,因此具有Python接口的深度学习框架具有相对的优势。Java、Lua等语言在这方面相对薄弱。 ?过滤结果:TensorFlow、PyTorch、Keras、MXNet ?可扩展性: ?主要依据框架的抽象程度。Keras其实是在TensorFlow等框架上做的一个封装,提供了易用的接口,但由于接口较为高层,因此深度定制较难。 ?过滤结果:TensorFlow、PyTorch、MXNet ?健全的文档: ?MXNet在文档上较为欠缺 ?过滤结果:TensorFlow、PyTorch ?官方支持: ?TensorFlow官方提供了很多高层框架,如TensorFlow Slim(包含多种常用网络)、Tensorflow Serving、TensorFlow Lite。相对而言,PyTorch官方提供的资源相对较弱。 ?过滤结果:TensorFlow

一、《荀子》的礼学思想 礼学是《荀子》一书的重要内容和突出特点。《荀子》现存32篇中,除专门论礼的《礼论》外,其它各篇也几乎无不述及礼,全书提到礼的地方有300多处。综观《荀子》一书,不难看出,礼学思想是贯穿于其中的一条红线,是荀子哲学思想的落脚点。《荀子》全面论述了礼的起源、礼的内容及礼的施行等一系列的问题,使礼学至此形成了一个完整的体系。 1、礼的起源。《礼论》开篇就设问“礼起于何也”,然后以“性恶论”为理论基础展开了分析: 曰:人生而有欲,欲而不得,则不能无求,求而无度量分界,则不能不争。争则乱,乱则穷。先王恶其乱也,故制礼义以分之,以养人之欲,给人之求。使欲必不穷于物,物必不屈于欲,两者相持而长,是礼之所起也。 荀子认为基于自然欲求的人,如果没有一定的规范予以约束,就会相互争夺,社会就会混乱不堪。古代君王不愿意社会出现混乱局面,就制定礼义,划分等级,调节人们欲望,满足人们要求,使物质增长和人的欲望相协调,礼就这样产生了。在礼的起源问题上,荀子强调两点:一礼不是先天就有的,礼和人的物质需求即“欲”有着密切联系,礼是调节人类欲望的必然产物,礼是从社会客观需要中产生的。二礼是圣人制定的。“礼义者,圣人之所生也”(《性恶》),圣人看到人之性恶,“化性而起伪,起伪而生礼义”(同上)。 2、礼的内容。“礼者,履也,所以祀神致福也。”(许慎:《说文解字》)在殷商时期主要是宗教祭祀仪式的礼,到了周代,逐渐丧失了其宗教特性而被赋予人文意义,成为社会生活中系统的礼节仪式和行为规范。[1]荀子承继儒家衣钵,认为礼的一个重要内容就是传统的礼节仪式。“礼者,谨于治生死者也。”(《礼论》)《礼论》篇中使用大量篇幅论及“三年之丧”。此外,《大略》篇还介绍了天子诸侯接见之礼、服饰之礼等等。但荀子“隆礼”的着眼点显然不在于此。荀子之礼的核心内容还是建立在新经济关系基础之上的新道德规范和等级秩序。“礼也者,贵者敬焉,老者孝焉,长者弟焉,幼者慈焉,贱者惠焉”。(《大略》)荀子认为礼和仁、义有着内在联系:“亲亲,故故,庸庸,劳劳,仁之杀也。贵贵,尊尊,贤贤,老老,长长,义之伦也。行之得其节,礼之序也。”(同上)行仁施义做得恰当就是礼。所以荀子认为:“仁、义、礼、乐,其致一也”(同上),其共同的终极目标都是为了构建一个于等级制度基础上的和谐社会。 3、礼的意义和作用。荀子在《礼论》中分析了礼的起源之后,又论及礼的目的,荀子归之为“养”和“别”。“养”就是“养人之欲,给人以求”,就是通过礼的调节,满足人的各种物质需求。“别”就是“贵贱有等,长幼有差,贫富轻重皆有称者也”(《富国》),就是确立封建等级秩序。“养”而又“别”显然是古代理想的社会状态,因此荀子把礼置于异常重要的地位:“礼者,人道之极也”(《礼论》),“人无礼则不生,事无礼则不成,国家无礼则不宁”(《修身》)。一方面,荀子认为礼是君子仁人修身养性的根本准则。“凡治气、养心之术,莫径由礼。”(《修身》)他又具体分析:“凡用血气、志意、知虑,由礼则治通,不由礼则悖乱提僈;食饮、衣服、居处、动静,由礼则和节,不由礼则触陷生疾;容貌、态度、进退、趋行,由礼则雅,不由礼则夷固僻违,庸众而野。”因此在《劝学》篇中,荀子明确提出:“学恶乎始?恶乎终?曰:其数则始于诵经,终乎读礼”,“学至于《礼》而止矣。”另一方面,最重要的,荀子把“隆礼”作为治国的根本方略。荀子认为礼对于国家,正如衡器对于轻重,绳墨对于曲直,规矩对于方圆,是衡量一切的最高标准,是治国的根本。“礼者,政之輓也。为政不以礼,政不行矣。”(《大略》)“礼者,治辩之极也,强国之本也,威行之道也,功

相关主题
文本预览
相关文档 最新文档