如何写好你的科学故事
摘要
科学家要想成功,就必须写得好。遵循经典的前言、方法、结果和讨论
(IMRaD)
结构的论文写作存在实质性指导。在这里,作者填补了这个教学经典中的一个关键空白。作者提供有关编写优秀科学故事的指导。这种宝贵但往往难以实现的技能可以增加研究的影响力及其被接受的可能性。科学故事不仅仅是提供信息。这是一个有凝聚力的叙述,通过提出和解决问题来吸引读者,有开头、中间和结尾。为了创建这种叙事结构,作者敦促考虑在研究结束时开始,先写下他们的主要结论,为讨论提供基础,然后倒推:结果→方法→完善讨论→介绍→摘要→
标题。在这篇简短而非正式的社论中,作者为广泛的受众提供指导,从高年级本科生(刚刚进行了他们的第一个研究项目)到高级科学家(他们可能会从重新思考他们的写作方法中受益)。为此,作者提供了具体的说明、示例和关于如何“倒着写”的文献指南,将科学叙事与
IMRaD 结构联系起来。
不发表就出局
写作是科学研究的一项基本技能。许多资源提供了关于撰写简洁、高效和令人信服的论文的指导(表
1),这些论文主要基于经典的介绍、方法、结果和讨论 (IMRaD)...
表观遗传学期末
1.表观遗传学概念,分子机制,及表观遗传经典现象
概念:
是指在DNA序列不发生改变的情况下,基因表达发生可遗传变异的现象
分子机制:
DNA甲基化修饰。是表观遗传的主要形式,DNA甲基化是指在DNA甲基转移酶的作用下,在基因组CpG岛的胞嘧啶五号碳原子上结合一个甲基基团。
组蛋白修饰:主要组蛋白甲基化和去甲基化、乙酰化与去乙酰化、磷酸化和泛素化。修饰的组蛋白改变了与DNA双链的亲和性,从而改变染色质的疏松或凝集状态,或通过影响转录因子与启动子的亲和性来发挥对基因表达的调控作用。
组蛋白变体:染色质由许多核小体组成,核小体是由组蛋白H2A,H2B,H3和H4各两个分子构成的八聚体,H1帮助DNA缠绕在核小体上形成高级结构。其中H2A,H3容易产生变体,H2B和H4不容易产生变体。组蛋白H3变体由H3.3、CENP-A、H3.3t,组蛋白H2A变体由H2A.Z、H2A.X、marco
H2A、H2A.Bob,组蛋白H2B变体由H2BWT,暂未发现更多的其他变体,组蛋白H4最保守,没有变体。
非编码...
杂聊6
...
杂聊5
...
机器学习-支持向量机
支持向量机总体是由一个合页损失函数和一个核函数组成 合页损失函数 由于函数形状像一个合页,故命合页损失函数,下图为合页损失函数的图形。 二分类问题求解分为三个步骤,第一步为定义函数 g(x)={f(x)>0,output= +1f(x)<0,output= -1g(x)= \begin{cases} f(x)>0, & \text {output= +1} \\ f(x)<0, & \text{output= -1} \end{cases}g(x)={f(x)>0,f(x)<0,output= +1output= -1 上述定义的函数,其输出由f(x)决定,当f(x)大于零时,输出为+1,当f(x)小于零时,输出为-1。第二步是通过损失函数判断函数的好坏。我们定义损失函数如下: L(f)=∑nI(g(xn)≠̸y^n)L(f)=\sum_nI(g(x^n)\not \neq \hat...
机器学习-逻辑回归
接着上篇博客继续,我们发现,概率生成模型最终推导函数,其本质还是寻找参数w和b,所以可以设置一个函数,直接来寻找最优的w和b
\[
f_{w,b}(x)=P_{w,b}(C_1|x)=\sigma(z)\\
\sigma(z)=\frac{1}{1+exp(-z)}\\
z = w \cdot x+b
\]
相较于线性回归,逻辑回归做的事情便是将 wx+b 放入 sigmoid
函数中,使其输出一直处于0~1之间。
在我们确定了函数之后,便是应该再定义一个损失函数。 假设有一组训练数据,其数据大小为
N,而且分别有自己的类别标签C。给定一组 w 和
b,就可以计算这组w,b下产生上图N个训练数据的概率,\(f_{w,b}(x^3)\)表示 \(x^3\)
属于C1的概率,但是其真实分类为C2,所以要用 \(1-f_{w,b}(x^3)\)。
\(L(w,b)L(w,b)\)取得的数值最大的时候,即取得最好的w和b,\(w^∗,b^∗ = argmax_{w,b}L(w,b)\)
在此我们可以做一个变换,对...
机器学习-概率生成模型
理论基础
概率生成模型,是概率统计和机器学习中的一类重要模型,指一系列用于随机生成可观测数据的模型。假设有两类数据,每一类都有若干个样本;概率生成模型认为每一类数据都服从某一种分布,如高斯分布;从两类训练数据中得到两个高斯分布的密度函数,具体的是获得均值和方差两个参数;测试样本输入到其中一个高斯分布函数,得到的概率值若大于0.5,则说明该样本属于该类,否则属于另一类。
生成模型可以和贝叶斯概率公式进行结合,用于分类问题。原始贝叶斯概率公式为:
\[
P(A|B)=\frac{P(B|A)P(A)}{P(B)}...
机器学习-梯度下降的优化
在回归中,我们需要解决下面的优化问题,即使得Loss函数尽可能的小
\[
\theta^*=arg\min L(\theta),L:loss function,\theta:parameters
\]
假设一共有两个参数\(\theta_1,\theta_2\),使得\(\theta^0=
\begin{bmatrix}\theta^0\\\theta^1\end{bmatrix}\),便有梯度如下
\[\nabla L(\theta)=\begin{bmatrix}
\partial L(\theta_1)/ \partial \theta_1\\\ \partial L(\theta_2)/
\partial...
机器学习-回归
前言
此次学习的课程为李宏毅机器学习,之前学过一遍吴恩达的课程,只可惜当时没记笔记,且近些时候没有写代码,逐渐疏忽了,故选择李宏毅再进行新一遍的学习,所谓温故而知新。
回归是我们通常会使用的机器学习中的一类,比如日常中的我们的身高预测,股票预测等等,这些都可以看作为粗略的回归。
举一个例子
小时候我们会玩一个叫赛尔号的游戏,游戏里有各种各样的精力,就好比我们捕捉到了一只雷伊,然后我们可以向雷伊投经验值,让他升级,这只雷伊会有一个攻击力,我们想要预测雷伊的各种各样的属性与其攻击力之间的关系。
于是我们设其血量为\(X_{hp}\),其体重为\(x_{w}\),其身高为\(x_{h}\),其物种为\(x_s\),其战斗力为\(x_{cp}\),然后预测他进化之后的战斗力值。那么便有\(y=b+\sum w_ix_i\),其中\(w_i:weight,b:bias\)。如果单一个\(x_{cp}\)作预测的话便是\(y=b+w\cdot x_{cp}\)。
收集到了数据之后,便是可以进行预测,在此我们使用一个名为Loss函数进行Loss计算
\[
L(f) =...