jsPsych 快速上手指南(3)——从实战角度看如何编写实验程序
[post cid="366" cover="" size=""/][post cid="376" cover="" size=""/]前两篇指南,我们快速过了一遍 jsPsych 中程序编写的...
[post cid="366" cover="" size=""/][post cid="376" cover="" size=""/]前两篇指南,我们快速过了一遍 jsPsych 中程序编写的...
在开始之前,我们先谈谈屋子里的大象。熟悉我的朋友应该都知道咱是在什么背景下聊到这个话题的,但在这篇文章中,我不想深入系统地去讨论“那个问题”——换言之,我认为这篇文章会谈到的,是比较泛化、具有一...
北京大学 2024 年秋季学期编译原理 - 笔记 11
北京大学 2024 年秋季学期编译原理 - 笔记 10
北京大学 2024 年秋季学期编译原理 - 笔记 09
北京大学 2024 年秋季学期编译原理 - 笔记 08
北京大学 2024 年秋季学期编译原理 - 笔记 07
“我们的选手真是太懒惰了,连 wrap-up 都懒得写!”作为我的第一篇 wrap-up,貌似得写一点开场白之类的。我是从 CCBC 13 & 14 入坑 Puzzle Hunt 的。一年以来我...
也许你会想,明明就是个晚点,能怎么着呢? 事情没有那么简单。 ? 如果完事无恙,我将乘坐波兰航空 LO12 从纽瓦克自由国际机场飞往华沙(纽约飞往北京的第一程)的班机。纽约时间 2024 年 8 月 3 日 19:45,本人正在从曼哈顿赶往机场的路上。非常不幸得,路上莫名其妙就开始下暴雨,结果可想而知,飞机延误,在 SAS Lounge 等着消息,延误到 21:30 登机,结果呢,到了九点半,登机...
学校提供了免费的校园网络,但是其速度不佳(20Mbps),在使用人数过多的时候会降到2Mbps,且对视频、游戏等支持欠佳。 本文探讨了一些技术方案以改善极其糟糕的上网体验。
最近新一代猿神发售了,不知道各位攻略进度如何了? 什么?你还没买?! 那快来看看这篇文章 ——《如何利用倒余额”折上折”购买Steam游戏》
该渲染由 Shiro API 生成,可能存在排版问题,最佳体验请前往:https://arthals.ink/posts/paper/Visual-Tokenizer 本文主要介绍一些对于 ViT 的改进工作。 本文中,令牌 /token 为等价表述。 Image as Set of Points arxiv / 2303.01494 前情提要:CoAtNet 标准 ViT 因为使用了绝对位置 embedding,标准 ViT 缺少平移不变性(指只关注相对距离,不关注绝对位置) CoAtNet 在自注意力之前先做卷积,可以有比原生 ViT 更好的表现。可以兼顾平移等变性(来自卷积)、输入自适应加权、全局感受野(来自自注意力) 核心改进:点集聚类 这篇文章提出了上下文聚类,它放弃了流行的卷积或注意力机制,而是新颖地考虑了经典算法 —— 聚类,来进行视觉学习的表示。 从图像到点集 首先将每个像素加上位置二维坐标信息 $\left[\frac{i}{w}-0.5, \frac{j}{h}-0.5\right]$ 后转为五维点,形成点集 $\mathbf{P}\in\mathbb{R}^{5\times n}$,其中 $n=w\times h$。 对点集进行特征提取 使用聚类算法,在空间中均匀选择一些锚点,并将最近的 $k$ 个点通过线性投影后进行连接和融合。 上下文聚类:将特征点 $\mathbf{P}\in\mathbb{R}^{n\times d}$ 根据相似性分成多个簇,每个点分配给一个簇。使用线性投影 $\mathbf{P}$ 到 $\mathbf{P}_s$ 进行相似性计算,并计算点与中心点之间的余弦相似度矩阵 $\mathbf{S}\in\mathbb{R}^{c\times n}$。 特征聚合:基于与中心点的相似性动态聚合簇中的点,聚合特征 $g$ 通过公式: $$...
本文是 Django 实验平台系列教程的第三篇。阅读本文前需要你先阅读前两篇文章。[post cid="382" cover="" size=""/][post cid="392" cover=...
本文是 Django 实验平台系列教程的第三篇。阅读本文前需要你先阅读前两篇文章。[post cid="382" cover="" size=""/][post cid="392" cover=...
麻婆豆腐算是经典下饭菜了,既然要用来下饭,料肯定要加的猛一点。
函数式编程(Functional Programming, FP)与面向对象编程(Object Oriente […]
原载于RIA服务器社群刊物《方圆》2024年6月刊,与CPK合作撰写。受限于博客展示效果,本文未标出图片出处、译文出处等引用,敬请谅解。您可在抹岚报社档案馆中查看本文原始版本及相关引用信息。隐藏...
原载于RIA服务器社群刊物《方圆》2024年6月刊,与CPK合作撰写。受限于博客展示效果,本文未标出图片出处、译文出处等引用,敬请谅解。您可在抹岚报社档案馆中查看本文原始版本及相关引用信息。隐藏...
该渲染由 Shiro API 生成,可能存在排版问题,最佳体验请前往:https://arthals.ink/posts/tools/arxiv Test https://arxiv.org/pdf/1709.08980v2 看完了?说点什么呢
该渲染由 Shiro API 生成,可能存在排版问题,最佳体验请前往:https://arthals.ink/notes/7 因为需要白嫖 Cloudflare R2,又不想转移 arthals.ink 的解析,于是需要重新买个新域名。 然后一眼就相中了 huh.moe,短域名+有知名网络意象,只可惜太贵了,要 96 USD(~700 RMB)呜呜 犹豫了两天之后,还是决定买了,真 · 主打一个冲动消费 看完了?说点什么呢
前言 前几天从工位拿到了个淘汰的Mac Pro。机箱是真的好看,内部做工精致整洁,可玩性非常强,于是不想放弃这个机会,打算对这台Mac Pro进行一次全方面的升级。 目前这台机子的配置是两块4核的Intel Xeon 5520作为CPU,两根1GB的DDR3 ECC SDRAM内存条,一张苹果于20
该渲染由 Shiro API 生成,可能存在排版问题,最佳体验请前往:https://arthals.ink/posts/tools/pku-auto-reservation 连着好几天零点抢入校预约,经历了好几次 1 分钟秒没,痛定思痛的我决心彻底自动化这个过程... 于是,就有了这个仓库 https://github.com/zhuozhiyongde/PKU-Auto-Reservation 看完了?说点什么呢
该渲染由 Shiro API 生成,可能存在排版问题,最佳体验请前往:https://arthals.ink/posts/travel/GuangZhou 去哪里? 随着暑假的时间一天天在游戏、B 站、知乎中消磨殆尽,我逐渐萌生了出去旅行的想法。最开始的备选选项很多,杭州、广州、重庆、深圳……最终使我下定决心的契机出现在了 QQ 群,当我看到友人 L 因为要去广州办理美签的原因成功和另一位友人 S 面基,再又琢磨了一下似乎打出生以来我就没有去过广州这个城市,于是我选定了广州作为目的地。 有了抉择后,我并没有像很多人一样预先去做攻略,尽管我草草地问了几位朋友广州有啥玩的,但心中似乎还是很抗拒还未亲身抵达就预先把自己塞到条条框框里的感觉, 也有可能是拖延症犯了 ,一直到我出发,我都没有为这趟行程做出任何安排。 Day 1 意识到即将远离北京,临出发的我犹如打了肾上腺素一样无法入眠,翻身起来上 B 站随便找了几个广州的旅游视频想要大致描绘一下未来几天的样子,北京路、陈家祠、广州塔……一个个名词开始闯入我的脑海并开始具象化,遥远的事物们似乎都即将变得触手可及,困意的来临被再三推迟,最终,我成功达成了只睡两个小时的壮举。 凌晨五点半,起床开始收拾行李。是的,我直到要出发才开始做这件事,因为我的行李很简单,我的所有电子设备——正如上学时一样,以及几套换洗的衣物,再加上钱包,检查一下身份证,Over,出发! 乘车来到麦当当,带走点好的早餐,然后直奔首都机场,一边吃着,一边感慨原来到机场只需要半小时车程,临下车炫完了四件套的三个,汉堡、可乐与香肠,拎着剩下的粥(很快它就会陨落在安检门口)和行李箱,我人生以来第一次,独自一人站在了机场门口。 由于之前总是和家人或者朋友一同出行,我并不怎么经手登机前的过程,都是照猫画虎地有样学样,结果就是这次好似一个首次来机场的人一样,凭着依稀的记忆一边问着一...
假设你已经读完了前一篇文章——[post cid="382" cover="" size=""/]你的手上现在应该有:一个可以用来运行 Django 的环境,和一个空白的 Django 项目。在...
复习册:Azure 云服务 1. Azure 服务性能优化 问题描述:Tradewind Traders 的电子商务网站在某些时段响应速度很慢。 解决方案:使用负载均衡,它能够分散网络流量,确保没有服务器过载,从而提升应用响应速度。这虽然需要增加成本以运行多实例,但能有效改善性能。 相关概念:负载均
从Git库中克隆库 输入我给你的URL,然后克隆 克隆好了 创建自己的分支并且切换 如果已经有了,就不用创建,直接切换 左上角的分支点开,里面有个“新建分支” 输入分支名字,创建 创建好后,只是创建到了本地 …
俗话说得好,自己动手丰衣足食,虽然我不知道为什么你会需要自己动手,但总之你这样做了(这个系列的教程会教你自己搭建一个能用的实验平台——可以在线收集数据,可以进行数据库管理的那种(而不需要手动下载...
虽然很闲得慌,但是如果OEM信息意外丢失的话,这里就只会显示System Product Name,看起来很膈应人。或者如果你想自定义这里改成你想要的文字,也可以遵循本文章教程。 很简单,首先使用Windows+R快捷键打开运行。在新弹出的窗口输入"regedit"打开注册表编辑器。 点击确定,然后
时隔上次发这个标题的博文过去了两年多,いぬすく社团更新了《妹!せいかつ~ファンタジー~ 》的DLC内容!其中一个和公会成员一起去温泉旅行的休息BGM再一次抓住了我的耳朵。由于这次的作曲风格依然很像是まんぼう二等兵的作曲风格,因此这一次很容易就可以找到乐曲的名字,おきらくシュガー!就和作者说的那样:
先说答案:不会 在文件处于被写入占用的状态时,FileReader依然能够读取到文件,不对正在占用的进程造成影响。 当文件被FileReader打开时,其他程序依然可以打开文件并且正常写入和保存 新的写入要调用flus …
从今天开始,咱时不时会贴点食谱到博客上面来 ( ̄▽ ̄) 。这些可都是咱的小秘方哦, 虽然不一定好吃。首先带来的当然是咱最喜欢的西红柿(投没投 tomato)炒蛋,咱拿手的有两种做法。
饱含泪水写下这篇文章,却不知道自己已经多久没哭过了。 又下雨了。果然一到盛夏,我们的雷公公就忍不住了,非要下点雨、打点雷、再来几道闪电,像作文里「击碎了黑暗」那般,倘若躲在被窝里,望向窗外,身上盖着被子,便会充满安全感。但如果是上班族和社畜们,就要对这天气骂街了,毕竟谁也不想一身湿着来上班。 总有人会想下雨,也总有人不想下雨。下雨了,有些人高兴,有些人心烦,又有些,会感到忧伤。 我就属于那些裹着被...
该渲染由 Shiro API 生成,可能存在排版问题,最佳体验请前往:https://arthals.ink/notes/6 期末季破防 ing。 越学越不想学,突然就想摆烂了。 实在是背不进去一点了啊。 看完了?说点什么呢
该渲染由 Shiro API 生成,可能存在排版问题,最佳体验请前往:https://arthals.ink/posts/experience/ai-practice AI 系统实践流水线 问题形式化:找出最重要且可行的问题 数据:确保数据质量和隐私安全 挑战:高质量的数据是永远稀缺的;隐私安全 模型训练:选择合适模型,优化训练 挑战:现在的模型越来越复杂,对数据的需求越来越大,训练代价大 模型部署 挑战:复杂模型的实时推理能力差(要考虑硬件资源受限的情况下怎么办) 持续维护:应对数据分布变化,定期更新模型 数据分布产生变化:指数据的统计特性(如均值、方差等)随时间发生变化,导致模型在新数据上的表现变差。 比如说你写了刷课机要过验证码,本来能过,结果验证码换了个版本增强了,过不去了,这时候就要维护,如更换更强的 CNN 模型,或者直接使用专业的商用 API(持续维护) 数据获取 获取并准备高质量的数据集。 清洗和预处理数据。 获取、整合外部数据 常见方法: 有官方的 API,直接请求 (有的时候官方 API 没有显式告诉你,但是你可以自己找,比如刷课机) 没有官方的 API,使用爬虫来爬取公开网页,从而获得数据 不要抓取 敏感 信息 不要抓取有 版权 的信息(除非有开源协议) 遵循网页的条例说明 商用要咨询法律建议 生成数据 当没有现成的数据 / 现有数据不足,但是有数据生成方法的时候,我们可以使用生成的数据来作为训练集。 生成数据是指通过一定的方法或技术,创造出新的数据。这些方法包括但不限于: 生成对抗网络(GAN):通过两个网络(生成器和判别器)相互竞争生成新的数据。 数据增强:对现有数据进行各种变换,以增加数据量和多样性。 如麻将大作业中的换花色,图片分类中加滤镜等 模拟器:使用计算机仿真生成特定场景或环境下的数据。 数据标注 有数据吗? 是: 如果有数据,继续下一步...
该渲染由 Shiro API 生成,可能存在排版问题,最佳体验请前往:https://arthals.ink/posts/experience/Markov-Decision-Process-and-Dynamic-Programming 马尔科夫决策过程(Markov Decision Process, MDP) 状态集合: $S$ 动作集合: $A$ 状态转移函数:$P: \langle S, A, S' \rangle \rightarrow \mathbb{R}^+$ $P(s'|s, a)$ 表示在当前状态 $s$ 和动作 $a$ 下,转移到状态 $s'$ 的 概率 奖励函数:$R: \langle S, A, \mathbb{R}^+ \rangle \rightarrow \mathbb{R}^+$ $R(s, a, r)$ 表示在当前状态 $s$ 和动作 $a$ 下,获得奖励 $r$ 的 概率 马尔可夫性质:在当前状态 $S_t$ 下,状态转移模型 $P$ 和奖励函数 $R$ 仅与 $S_t$ 有关,和之前的状态及动作无关,也即: $$ P(S{t+1} \mid S_t, A_t, S{t-1}, A{t-1}, \ldots, S_0, A_0) = P(S{t+1} \mid S_t, A_t) $$ 这条性质可以有力地简化问题。 有限 MDP:状态集合 $S$ 和动作集合 $A$ 为有限集。 回顾定义 首先,回顾一下上节课讲过的三个公式。 累积收益值 $G_t$ 表示从时间步 $t$ 开始的累积收益值。 $$ Gt = R{t+1} + \gamma R{t+2} + \gamma^2 R{t+3} + \cdots = \sum{k=0}^{\infty} \gamma^k R{t+k+1} $$ 其中,$\gamma$ 是折扣因子,$0 \leq...
轻轻拂过的春风,带来了好消息。过去一年的努力,总算是没有白费。总结考研初始备考这一年。
该渲染由 Shiro API 生成,可能存在排版问题,最佳体验请前往:https://arthals.ink/posts/experience/Basis-Of-Reinforcement-Learning 强化理论 强化理论(Reinforcement Theory):强化理论是一种行为学习理论,认为行为可以通过奖赏和惩罚来改变。 通过奖励和惩罚的方式可以改变智能体的行为方式 这是强化理论的基本思想。通过提供奖励(正强化)或惩罚(负强化),可以影响智能体的行为,使其趋向于某种特定的行为模式。 正强化:当智能体表现出期望行为时,给予 奖励,从而增加该行为的发生频率。 负强化:当智能体表现出不期望行为时,给予 惩罚,从而减少该行为的发生频率。 随机奖励可以使智能体上瘾 随机奖励指的是 不确定何时会获得奖励的机制。研究表明,这种不确定性会使智能体更投入于某种行为,因为它们总是期待下一次可能的奖励。 这种机制在现实生活中也很常见,例如赌博和某些电子游戏中,随机奖励机制会让人上瘾。 这里不在课程范围 问题建模 环境(问题模型) 初始状态 $S_0$ (state) 当前玩家 $C$ (current player (s)) 动作 $A$ (action):智能体在某个状态下的合法动作集合。 状态转移 $P$ (transition) $P(S{t+1} \mid S_t, A_t)$ 用以表示环境,表示在时间 $t$ 时刻,智能体在状态 $S_t$ 下采取动作 $A_t$ 后,转移到下一时刻状态 $S{t+1}$ 的概率。 衡量一个环境的 复杂程度:某个状态下,智能体采取某个动作后,转移到下一个状态的状态转移模型。可能到达的所有状态构成了 状态空间 (state space)。所有状态下可行动作,构成 动作空间 (action space)。 由此可见,状态转移的不确定性可能来自环...
前言 终于从本科毕业了。虽然还有一年的研究生,但是这四年过的真的很快。讲真,这次的毕业设计我不是非常满意,但也拿到了还算不错的成绩。于是就用这个文章来聊聊我的毕设经历。 美国的毕设(Senior Design Project)是啥样的? 我对中国的毕设了解不多(因为没在中国上过大学)。但是根据朋友描
基本信息GL.iNet 的配置信息(例如 S/N 码、设备 ID、区域代码等)位于设备 Flash 分区内,不随固件更新注意:操作过程中请务必对分区原始数据进行备份导出分区注意:不同型号设备的区...
该渲染由 Shiro API 生成,可能存在排版问题,最佳体验请前往:https://arthals.ink/posts/experience/Adversarial-Search 问题模型 对抗性 在零和游戏中,总收益为零,一方的收益必然是另一方的损失。常见于竞争性环境,如内卷现象。 非零和游戏中,总收益不为零,各方通过最大化自身利益,有时还需要合作。损人不一定利己,可以多方共同从第三方获取收益。 人数分类 单人游戏:仅一个参与者 双人游戏:两个参与者 多人游戏:三个及以上参与者 随机性 确定性游戏:动作引发的后果是确定的 非确定性游戏:动作引发的后果是不确定的 状态可见性 完全信息游戏:所有信息对所有玩家都是已知的 非完全信息游戏:对玩家存在未知信息 同步性 同步游戏:所有玩家同时进行决策 异步游戏:玩家依次进行决策 环境的可变性 环境信息不变游戏:游戏环境信息保持不变 环境信息变化游戏:游戏环境信息会发生变化 双人零和游戏 游戏定义 一个双人零和游戏可以定义为一个 搜索 问题,包含以下元素: S0:初始状态,描述游戏开始时的状态。 PLAYER(s):在某个局面下,轮到哪个玩家选择动作。 ACTIONS(s):返回在某个状态下的合法动作集合。 RESULT(s,a):状态转移模型,一个动作执行后到达哪个状态。 TERMINAL-TEST(s):游戏结束返回 true,否则返回 false。游戏结束时的状态称为终止状态。 UTILITY(s, p):效用函数(目标函数或者支付函数),表示游戏结束时玩家 $p$ 的得分。零和游戏中,所有玩家得分的和为零。 搜索树复杂性 游戏的难点在于 搜索树可能非常大。 国际象棋 平均每步有 35 个选择。 每个选手需要走 50 步,两人总共 100 步。 搜索树节点数:$35^{100}$ 或 $10^{154}$ 个节点。 围棋 平均...
[post cid="366" cover="" size=""/]上一篇教程中,我们做了一个简单的实验程序 demo,演示了一下 jsPsych 编写实验程序的基本逻辑。这篇教程,我们会在上一...
我之前在用向日葵、todesk和teamviewer一类的工具来远程连接Windows的设备。久而久之,这样做 […]
本文是一篇面向了解心理学实验设计基础,有一定的心理学实验开发能力和开发经验的朋友(比如已经使用过 E-Prime、PsychoPy、PsychToolBox 等实验框架)的快速上手指南。本文不适...
前言 杰帕斯你真行,想到啥干啥啊(恼 本文 事情是这样的,4月12号的时候看到了一个叫做安知鱼的Hexo主题,第一眼就看中并且极其难耐想要使用。但是Hexo这类静态站用在Github Pages,Vercel之上很方便,构建管线也易于管理,但不太适合我这种已经有自己的网页服务器的人,我看起来更适合使
Linux 编译 SDK 自动配置脚本OS: Ubuntu 14.04 x64首先参考官方文档中 Hi3516EV200/Hi3516EV300/Hi3518EV300 Linux SDK 安装...
大二上Pyhton时候的课设,使用类与对象思想,加入云服务B/S理念。 Git地址:https://gitee.com/vastsea-admin/py-course-reg-system 视频介绍:https://www.bilibili.com/video/BV1JM4m1R7SJ/ 功能模块 学 …
第1关:实现基于数组的栈 第2关:实现基于链表的栈 第3关:基于数组的队列 第4关:基于链表的队列 整个活,玩一下哈哈
原发于QQ空间,原始日期为3月15日OMORI居然都三周年了,虽然距离我玩OMORI已经很久了,但是也没想到这个距离居然长到了快两年多。岁月大概是把牛排刀吧.jpg虽然我也不算是鉴赏家,也不能说...
这篇笔记咱主要记录了Hadoop执行Job时可能出现的 /bin/java: No such file or directory 以及 java.lang.reflect.InaccessibleObjectException 问题。
本文主要介绍个人为了利用docker部署伪分布式Hadoop,在Docker容器间实现SSH自动公钥交换、免密登录的一次尝试。