爬行动物中由单细胞转录组揭示的大脑皮层,海马和皮层细胞类型的进化
这是读的第一篇的关于不同物种脑比较的文章,进行了较为精细的阅读,故作此记录。原文链接
摘要
哺乳动物皮层中的计算通过谷氨酸和γ氨基丁酸释放神经元形成的特定回路区域进行的。我们在这里探究了这些神经元,这些区域是如何在羊膜动物中进化的。我们使用了大规模的单细胞
mRNA
测序构建了两种爬行动物的大脑皮层的基因表达图谱。爬行动物皮层中谷氨酸神经元转录特征表明哺乳动物新皮质层是由新的细胞类型通过祖先的基因调控程序分化生成的。相反的,爬行动物的
GABAergic
神经元的分化表明在哺乳动物中已知的中间神经元类型早已存在于羊膜动物的共同祖先中。
开篇
大约3.2亿年前,羊膜类脊椎动物(哺乳动物、爬行动物和鸟类)起源于一个共同的祖先。在所有发育中的羊膜动物中,端脑背侧(dorsal
telencephalon)或大脑皮层有着相同的信号分子,并被分为同源的胚胎区域。然而在成年羊膜动物脑区中,来自这些同源皮层区域的结构具有不同的形态和连接性。例如,六层大脑皮层只存在于哺乳动物中,背侧脑室脊(DVR)只在鸟类和爬行动物中发现。海马区可能是最保守的大脑皮层区域,即使在海马区,也不确定哺乳 ...
为何有人害怕chatgpt
我觉得当我们在讨论所有的chatgpt的问题的时候,我们需要想清楚的是:我们要的到底是AI,是人工智能,还是一个不会反抗的、可以被无限剥削的机器奴隶。我认为这个才是所谓人工智能社会学的一个元问题。而要真正理解这个问题,我们就必须回到AI被生产出来的社会环境当中才能够找到答案。可以说,从所谓的自由雇佣的市场经济诞生的那一刻开始,老板就一直乐于告诉被雇佣的工人,那就是“外面有人,甚至不是人,愿意以更低的价格,甚至是免费的价格来做和你一样的工作。”换句话说,所有的老板都希望所有的员工都是不安全的,都是可以被取代的,这样我们就不能够提出任何的要求,要心甘情愿的接受所有的既定条件。机器人,自动化的趋势,以及以chatgpt为代表的AI技术,可能最大程度的放大了这种阶层的动态。每一次相关技术的进步都会被媒体和资本包装成一次完美的规训机会,一场针对工人的深入骨髓的PUA表演。而最近的所谓的gpt恐慌就更是如此。结合着当下世界经济周期的缩紧,他帮助全球的商业经营打好了一场不见血的阶层战争。于是乎,一个反幽灵,一个徘徊在当今的工作场所上空的、机械的、智能的反幽灵,一个技术决定论的反幽灵出现了。他告诉我们 ...
pip install fa2
最近在学习scanpy,读scanpy文档的toturial部分的
Trajectory
inference for hematopoiesis in mouse
部分的时候,出现了一个错误,在我的 jupyter notebook
运行的时候,出现了一个 warning
WARNING: Package 'fa2' is not installed, falling back to layout 'fr'.To use the faster and better ForceAtlas2 layout, install package 'fa2' (`pip install fa2`).
这个warning会导致我之后绘制的图片与文档中的原图有区别,在执行命令sc.pl.draw_graph(adata, color='paul15_clusters', legend_loc='on data')的时候,可以看到,左边是源文档的图片,右边是我画出来的图片
[{"url":"https://r ...
如何写好你的科学故事
摘要
科学家要想成功,就必须写得好。遵循经典的前言、方法、结果和讨论
(IMRaD)
结构的论文写作存在实质性指导。在这里,作者填补了这个教学经典中的一个关键空白。作者提供有关编写优秀科学故事的指导。这种宝贵但往往难以实现的技能可以增加研究的影响力及其被接受的可能性。科学故事不仅仅是提供信息。这是一个有凝聚力的叙述,通过提出和解决问题来吸引读者,有开头、中间和结尾。为了创建这种叙事结构,作者敦促考虑在研究结束时开始,先写下他们的主要结论,为讨论提供基础,然后倒推:结果→方法→完善讨论→介绍→摘要→
标题。在这篇简短而非正式的社论中,作者为广泛的受众提供指导,从高年级本科生(刚刚进行了他们的第一个研究项目)到高级科学家(他们可能会从重新思考他们的写作方法中受益)。为此,作者提供了具体的说明、示例和关于如何“倒着写”的文献指南,将科学叙事与
IMRaD 结构联系起来。
不发表就出局
写作是科学研究的一项基本技能。许多资源提供了关于撰写简洁、高效和令人信服的论文的指导(表
1),这些论文主要基于经典的介绍、方法、结果和讨论 (IMRaD) 结构(图
1A)。对于写作的一般规 ...
表观遗传学期末
1.表观遗传学概念,分子机制,及表观遗传经典现象
概念:
是指在DNA序列不发生改变的情况下,基因表达发生可遗传变异的现象
分子机制:
DNA甲基化修饰。是表观遗传的主要形式,DNA甲基化是指在DNA甲基转移酶的作用下,在基因组CpG岛的胞嘧啶五号碳原子上结合一个甲基基团。
组蛋白修饰:主要组蛋白甲基化和去甲基化、乙酰化与去乙酰化、磷酸化和泛素化。修饰的组蛋白改变了与DNA双链的亲和性,从而改变染色质的疏松或凝集状态,或通过影响转录因子与启动子的亲和性来发挥对基因表达的调控作用。
组蛋白变体:染色质由许多核小体组成,核小体是由组蛋白H2A,H2B,H3和H4各两个分子构成的八聚体,H1帮助DNA缠绕在核小体上形成高级结构。其中H2A,H3容易产生变体,H2B和H4不容易产生变体。组蛋白H3变体由H3.3、CENP-A、H3.3t,组蛋白H2A变体由H2A.Z、H2A.X、marco
H2A、H2A.Bob,组蛋白H2B变体由H2BWT,暂未发现更多的其他变体,组蛋白H4最保守,没有变体。
非编码 RNA
调控:长链非编码RNA在基因簇乃至整个染色体水平发挥顺式调节 ...
杂聊6
我没有那么专注了,是的。
最近处于一种不太专注的状态,又或许我已经处于这个状态很长时间了,但是现在才发现这件事情,感觉给自己的生活造成了有好大一部分的困扰,还是记录一下吧。
大概已经是一年多了,我可能处于同一时间做多件事情,我尤其清晰的记得,去年年底的时候,那时候还是台式机,我可以开着terminal炼丹,然后开着LOL,然后旁边的手机还放着柯南,键盘上面半盖着一本小说,大概是处于一心四用。当然这样子的事情还是有很多的,只是最近觉得,这样子效率很低,而且我在事后感觉不到满足感了,这个是给我很大打击的地方。
我尤其清晰的记得,上初中的时候,我悄悄的溜出家门,然后小跑跑到距离家有一段距离的黑网吧,然后开一台机器,开机就选择英雄联盟,丝毫没有其他选择,我很清晰的记得我的卡特琳娜开启死亡莲花拿到五杀推平对方基地之后,我长舒口气,然后习惯摇了摇脖子,才发现背后有人,转身过去才发现是我爸在那儿站着。事后问网吧老板,老板说我爸已经站了十多分钟了,但是我全然没有知觉,我的注意力十分集中,集中于那唯一的一点英雄联盟。
后来到了高中的做题家,我也觉得自己是十分专注的,尤其是数据物理和英语,全神贯注 ...
杂聊5
又是一个月过去,十一仿佛就在昨日,然后劈里啪啦的,就跑走了三个星期,只能说感受不到自己做了什么,学到了什么,所以觉得落差感比较大。而且博客也是很久没写了,进行稍微长一点的叙述就会显得我的逻辑比较混乱。
今天应该是还有很多的ddl的,比如刚刚开辟的Python_70_Project,想做一个稍微大一些的Python导学项目,然后大概也是每天写个几十行那个样子;比如还要重温C++,这是很久之前学习的了,现在写起来也是逐渐手生,根本写不下去,于是乎重新打开黑马,又开始无聊又有趣的学习之路,希望之后能把硬件做起来吧,要学习一下老学长,成为一名稍微全栈一些的孩子。
目前上课的状态大概就是,老师讲自己领域内最为前言的工作,讲他们自己做的实验的思路、流程,以及相关的一些延申,这两周大概也有课陆续要结课了,大概就是政治课和一门选修课,政治课的pre文稿刚刚交了上去,这门选修课大概就是临时做一个数模之类的。
生物统计学的作业到现在还没做,明明26号就是ddl了,居然自己还在玩。前些日子入手了一只switch,到现在已经玩了快三十个小时了,平均每天三小时吧大概,按照晚上十点下课,到宿舍十点半,开始玩 ...
返校3周,国科大加重了我的精神内耗
今天北大出入校改成自动报备了,本科同学们在约饭,我说我在坐牢去不了。
我想起上周中秋节,老师说出校只能当天去当天回,在外过夜需要自费隔离三天,可能是担心我半夜着凉。看了眼怀密线每晚6点的末班车,毅然鸽了同学。假期一结束,又说在外过夜不用隔离了。
能知道中秋节能回家这个消息,还是某个微信群里看到的。该群有段时间一直在锐评学校的出入校政策,后来有几个群友被老师谈话了。现在群已经没了,没准不是学校要求解散的。
倒也不是不能出校,3个星期之前我出了一次,不过是被救护车拉走的,170块钱不知道什么时候能报销。疯狂星期四那天,不知道怎么想的,我在怀柔医院点了一顿麦当劳。
国科大企业微信的疫情防控里需要每日上报,我每次填的都是“当天住在校外”、“昨日没做核酸”,没人理我。当你试图叛逆的时候,没人在乎才是最尴尬的。就在我心灰意冷进教学楼的时候,忘了扫健康码,被工作人员追了10米,这才稍微安心一点。
既然大学生风险这么高,不如改成网课,毕竟还要麻烦老师和其他工作人员每天进出学校,怕传染给他们的家人。
其实说是想出校,来回一趟5、6个小时,周末我也懒得回。不适应这种“非必要不出校”的生活罢了, ...
机器学习-支持向量机
支持向量机总体是由一个合页损失函数和一个核函数组成
合页损失函数
由于函数形状像一个合页,故命合页损失函数,下图为合页损失函数的图形。
二分类问题求解分为三个步骤,第一步为定义函数
\[
g(x)= \begin{cases} f(x)>0, & \text {output= +1} \\ f(x)<0,
& \text{output= -1} \end{cases}
\]
上述定义的函数,其输出由f(x)决定,当f(x)大于零时,输出为+1,当f(x)小于零时,输出为-1。第二步是通过损失函数判断函数的好坏。我们定义损失函数如下:
\[
L(f)=\sum_nI(g(x^n)\not \neq \hat y^n)
\]
\(x^n\)表示训练集中第n个数据,I代表指示函数,当它的输入为True的时候,输出1;否则输出0。也就是说,当我们的函数g预测的结果和实际结果一样的时候就没有损失,不一样的时候才有损失。但是这个损失函数是不可微分的,就无法用梯度下降的方法来优化。这时我们用另一个近似的函数来表示:
\[
L(f)=\s ...
机器学习-逻辑回归
接着上篇博客继续,我们发现,概率生成模型最终推导函数,其本质还是寻找参数w和b,所以可以设置一个函数,直接来寻找最优的w和b
\[
f_{w,b}(x)=P_{w,b}(C_1|x)=\sigma(z)\\
\sigma(z)=\frac{1}{1+exp(-z)}\\
z = w \cdot x+b
\]
相较于线性回归,逻辑回归做的事情便是将 wx+b 放入 sigmoid
函数中,使其输出一直处于0~1之间。
在我们确定了函数之后,便是应该再定义一个损失函数。 假设有一组训练数据,其数据大小为
N,而且分别有自己的类别标签C。给定一组 w 和
b,就可以计算这组w,b下产生上图N个训练数据的概率,\(f_{w,b}(x^3)\)表示 \(x^3\)
属于C1的概率,但是其真实分类为C2,所以要用 \(1-f_{w,b}(x^3)\)。
\(L(w,b)L(w,b)\)取得的数值最大的时候,即取得最好的w和b,\(w^∗,b^∗ = argmax_{w,b}L(w,b)\)
在此我们可以做一个变换,对 \(L(w,b)\)取对数不影响其单调性,然后再 ...