2016年,我做过一次AI写代码创业

2016年,我做过一次AI写代码创业

(视频)

2016年的“Agentic Coding”先驱:我在AI大浪潮前夜的创业往事与启示

1. 引言:一个提前了十年的预言

2016年,当人工智能尚未成为如今席卷全球的全民浪潮时,我正独自站在一片荒凉却充满希望的荒原上。那一年,我成立了一家名为“ai.codes”的公司。这个名字在当时几乎不需要解释:ai codes——把 code 当作动词,意思就是“AI写代码”。

那是一个Transformer尚未问世、算力昂贵得令投资者咋舌的年代。我怀揣着一个在今天被称为“Agentic Coding”的超前愿景,试图用语言模型来理解、修改和生成代码。然而,当一个近乎完美的未来愿景在错误的时间点降临时,它往往不会变成通往成功的阶梯,而会演变成一场关于孤独与勇气的无声碰撞。今天,我想把这段往事写下来,既是对那个技术爆发前夜的记录,也是给三十岁的自己一封迟到的回信。

2. 起点的伏笔:从Jeff Dean的深夜代码到Fitbit的神经网络

我的创业冲动并非凭空而来,而是植根于在顶级技术公司观察到的非线性变革。

2011年到2014年间,我在Google工作。那时我养成了一个习惯:追踪Jeff Dean最近的代码动态。2013年夏天,我注意到他参与了一个名为“DistBelief”的项目——那是Google早期的分布式神经网络训练系统。虽然当时我无法预见这条路径最终会走向何方,但这件事成了我的契机:我开始投入大量时间系统地学习神经网络。

2014年,我离开Google加入Fitbit。当时,Fitbit正试图解决如何利用可穿戴设备识别睡眠周期的问题。我主导将卷积神经网络(CNN)引入这一领域。实践结果令人震惊:神经网络的效果明显优于主流的特征工程方法。

“它证明了神经网络在处理复杂信号时,比人工构造的特征更具表现力。这彻底建立了我对神经网络处理语言代码能力的信心。”

3. 产品雏形:比Transformer更早的“代码补全”实验

2016年8月,我从Fitbit辞职,全职投入到“ai.codes”的创业中。我最先尝试的产品是一个智能代码自动补全工具,目标是提高程序员在IDE里的工作效率。

在那个没有Transformer的年代,LSTM(长短期记忆网络)是处理序列任务最现实的选择。我下载了GitHub上大量的开源代码,在GPU上训练了一个4层LSTM模型。它的核心任务非常直观:预测下一个token。为了提高可用性,我引入了**语法约束解码(constrained decoding)**的技术。

代码和自然语言相比有一个天然优势:它的统计意义上比自然语言更规整、更低熵,且受到极强的语法约束。比如前面没有出现左括号,后面就不该出现右括号。我自然地加入了一层约束:把那些在当前语法位置不可能出现的token过滤掉。”

这种思路与今天流行的合法JSON生成等技术不谋而合。但在当时,这仅仅是基于我对手写编译器和语法检查的直觉结合。

4. 令人振奋的魔力时刻:2016年的RAG原型

除了基础的补全,我还探索了一种更具交互性的方式:利用Stack Overflow的海量代码段。我将这些代码段做成索引,发明了一种“三个斜线”的触发方式。

例如,当用户在IntelliJ插件中输入/// 此处我需要把文件内容读取成一个列表时,系统会先从索引里搜索,拿出候选代码片段,再让语言模型结合上下文继续生成。这种思路,正是今天大火的RAG(检索增强生成)。

“直到今天,我都记得第一次看到它真正‘写代码’时那种近乎魔术般的感觉。程序不仅语法正确,连变量名都能自动和上下文对齐。”

5. 时代的鸿沟:当技术领先于共识

然而,领先于时代本身就是一种巨大的风险。在融资过程中,我遭遇了前所未有的共识鸿沟。

最令我反思的是一个战略上的误判:我当时固执地认为这种技术只能卖给大公司(Enterprise),需要结合其内部代码库做微调才能体现价值。这导致我陷入了漫长且无果的定制化沟通中,而忽略了它作为通用工具的可能性。

在融资时,我也面临着“鸡同鸭讲”的困境。有位不了解AI的资深VC问我:“这个技术能不能卖到中国去赚钱?”当时我提出需要25万美元购买GPU来训练模型,投资人们完全无法理解。在他们的认知里,钱应该花在招人、做市场上,而不是变成“GPU发出的热量”。

我曾拿到过一份150万美元的投资合同,那是我的第一份正式Term Sheet。但我最终拒绝了。因为合同中的某些条款让我感到非常不适,我不想带着一颗“受羁绊”的心去创业

即便是YC,在面试后也给出了拒绝。他们虽然喜欢产品,但需要看到“更多信号”。而所谓的信号,在那个算力和模型能力都未达标的年代,几乎是无法通过工程勤奋补齐的。

6. 两条未选择的路:OpenAI面试与圣诞夜的玩具车

当资金耗尽,我必须在理想与生存之间做出选择。那是我人生中最沉重的时刻。我几乎一个人扛起了技术、产品、融资和所有的叙事压力。

我记得2016年的圣诞节,经济压力已经到了爆发点。我舍不得买圣诞树,直到平安夜前一刻,才想起来去超市给刚满一岁的儿子买了一个小小的玩具汽车。那天深夜,看着熟睡的孩子,我站在那里,心里隐约意识到:我不能再这样耗下去了。

于是,我决定“退一步”,先去赚钱。当时有两个选择:一个是早期的OpenAI。我和Andrej Karpathy聊了很久,但我太明确地知道自己想要什么——我想做AI写代码,而当时的OpenAI重心在强化学习和视觉,他们对我这个方向并无太大兴趣。

最终,我选择了加入Reddit。我的逻辑是:如果NLP是未来,Reddit这个巨大的社交网络将是最好的实验场。

7. 惊人的历史交汇:在near.ai遇到Transformer之父

这段创业往事中最具戏剧性的时刻发生在我加入Reddit后不久。2016年夏天,我在旧金山联合广场旁的咖啡馆遇到了两个俄罗斯青年:Illia Polosukhin和Alexander Skidanov。

他们创办了一家叫near.ai的公司,目标竟然和我如出一辙:用AI写代码。我诚恳地分享了我遇到的困难、融资的碰壁,甚至直接告诉他们我决定放弃了。一个月后,他们拿到了融资。

故事的讽刺之处在于,near.ai后来因为AI写代码走不通,转向了区块链,成为了著名的公链项目。而那位坐在我对面忧虑着“AI写代码”的Illia Polosukhin,正是后来彻底改变AI进程的论文《Attention Is All You Need》的作者之一。

今天的ChatGPT时代,几乎都建立在Transformer这项工作之上。这次交汇让我深刻意识到:“看对方向”与“看准时机”是两回事。

8. 结语:写给AI浪潮中的焦虑者

回看那段往事,我最后悔的不是没有坚持,而是当时那种“隐身模式”(Stealth Mode)的思维。我总想着要把东西做得更完美、更漂亮再向公众展示,却错过了在开放社区中积累势能的机会。现在的创业环境已经变了,“Build in Public”不再是选项,而是生存的基石。

未来是非线性的,个人的努力必须与时代的节奏共振。正如我后来所感悟到的:

“焦虑并不能帮助我们接近未来。更重要的是在当下的边界内,做一个对得起自己、能看清路径的选择。”

如果你此刻正站在未来的边界上,目睹着尚未被大众认可的曙光,你会为了那份尚未到来的共识坚持多久?

版权声明:
作者:ht
链接:https://www.techfm.club/p/234401.html
来源:TechFM
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>