首先,在计算机科学中 routine 被定义为一系列的操作,多个 routine 的执行形成一个父子关系,并且子 routine 一定会在父 routine 结束前结束,也就是一个个的函数执行和嵌套执行形成了父子关系。 coroutine 也是广义上的 routine,不同的是 coroutine 能够通
1. 人性 毛姆说:“卑鄙与伟大,恶毒与善良,仇恨与热爱是可以互不排斥地并存在同一颗心里的。”所以,人性经不起判断,它的灵活多变让每个人既是天使,亦是撒旦。” 正如尼采所述:“人和树一样,他愈求升到高处和光明
今天在配置语法高亮的时候,发现 hugo 主题并没有自带 hightlight.js 的引用,但是还是存在默认的语法高亮。 F12 发现 html 代码里 <pre> -> <code> 这个层级下面还有存在一些其他的元素和 tag,切割了代码 tag 的整体。 如图: 后面搜到 hugo 使用了 Chroma 作为基础
如果不使用任何同步机制(例如 mutex 或 atomic),在多线程中读写同一个变量,那么,程序的结果是难以预料的。简单来说,编译器以及 CPU 的一些行为,会影响到程序的执行结果: 即使是简单的语句,C++ 也不保证是原子
名词解释 移动语义:用不那么昂贵的操作代替昂贵的复制操作,也使得只支持移动变得可能,比如 unique_ptr,将数据的所有权移交给别人而不是多者同时引用。 完美转发:目标函数会收到转发函数完全相同类似的实
异常检测 异常检测是一种无监督学习算法,选定一些特征作为输入,输出为概率 $p(x)$ ,当 $p(x_{test}) < \epsilon$ 时,概率 $p$ 小于异常的阈值 $\epsilon$ , 那么判断样本为异常样本。使用场景有飞机引擎的异常检测,用户行为异常检测,数据中心的机器是否
神经元 神经网络由多个神经元组成,其中神经元由几个部分组成:输入、输入权重、输出和激活函数组成,类似于生物神经元的树突、轴突的组成。 神经元的输入由左边的神经元输出 $x$ 乘以权重 $w$ 并加和得到,输出的时候,类似
二分类问题 问题定义:给定一些特征,给其分类之一。 假设函数 $h(x)$ 定义: $$ h(x) = g(\theta^Tx) $$ $$ g(z) = \dfrac{1}{1 +e^{-z}} $$ 决策边界: 当 $h(x) >= 0.5$ 的时候,y 更有可能预测为 1。 当 $h(x) < 0.5$ 的时候,y 更有可能预测为 0。 当 z 的值为 0,也就是 $\theta^Tx$ = 0 时就是
单元线性回归 1、定义假设函数 $h(x) = \theta_1x + \theta_0$ 2、尝试用样本拟合假设函数,所有样本点到假设函数的距离,其中$m$为样本数量: $$sum = \dfrac{1}{2m} \sum_{1}^{m} (h(x_i) - y_i)^2$$ 3、当 sum 的值越小,假设函数的偏差就预测样本更加精确。这个表达式就是代价
相关性计算 首先通过下面的更新语句,插入几条语句: PUT /megacorp/employee/1 { "first_name" : "John", "last_name" : "Smith", "age" : 25, "about" : "I love to go rock climbing", "interests": [ "sports", "music" ] } PUT /megacorp/employee/2 { "first_name" : "Jane", "last_name" : "Smith", "age" : 32, "about" : "I like to collect rock albums", "interests": [ "music" ] } PUT /megacorp/employee/3 { "first_name" : "Douglas", "last_name" : "Fir", "age" : 35, "about": "I like to build cabinets", "interests": [ "forestry" ] } 索引