- Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention
UnknownBody
LLMDailyLLMcontext语言模型人工智能
本文是LLM系列文章,针对《LeaveNoContextBehind:EfficientInfiniteContextTransformerswithInfini-attention》的翻译。不让任何上下文掉队:无限关注的高效无限上下文Transformer摘要1引言2方法3实验4相关工作5结论摘要这项工作介绍了一种将基于Transformer的大型语言模型(LLM)扩展到具有有限内存和计算的无限
- 从代码到专利:如何用自注意力机制实现高效序列转换?——深度解析Google的Transformer架构
CodePatentMaster
transformer深度学习人工智能AIGC架构
本文将从五个方面【技术问题、技术手段、技术效果、代码实现逻辑和工程落地建议】解读以下专利。US201816021971A,ATTENTION-BASEDSEQUENCETRANSDUCTIONNEURALNETWORKS一、技术问题:为什么需要自注意力机制?在传统的序列转换任务(如机器翻译、语音识别等)中,循环神经网络(RNN)和卷积神经网络(CNN)是常用的模型架构。然而,这些模型存在以下问题:
- flash_atten库安装失败
心平气和不要慌
python开发语言
在使用tinyllava时,需要安装flash_atten库,直接pipinstallflash_atten安装出现无法安装且安装速度慢的情况,下面是解决方案。1.查询对应版本(cuda,python等),直接下载对应whl文件。地址:https://github.com/Dao-AILab/flash-attention/releases?page=52.安装,这里我选择abiFALSE版本的才
- flash-attention安装教程
深度求索者
深度学习人工智能
flash-attention不仅能加快速度,还可以节省显存。安装方法如下:首先搞清楚你的python什么版本,torch什么版本,cuda什么版本,操作系统是什么。例如我下载的是:flash_attn-2.7.0.post2+cu12torch2.3cxx11abiTRUE-cp310-cp310-linux_x86_64.whl我的操作系统是Linux,Python3.10,cuda12,to
- 【有啥问啥】DeepSeek 技术原理详解
有啥问啥
大模型深度学习
DeepSeek技术原理详解DeepSeek是一款具有突破性技术的大型语言模型,其背后的技术原理涵盖了多个方面,以下是对其主要技术原理的详细介绍:架构创新多头潜在注意力机制(MLA)传送门链接:DeepSeekV3中的Multi-HeadLatentAttention(MLA):技术解析与应用DeepSeek引入了多头潜在注意力机制(Multi-headLatentAttention,MLA),这
- 【深度学习基础】什么是注意力机制
我的青春不太冷
深度学习人工智能注意力机制
文章目录一、注意力机制的核心地位:从补充到主导二、技术突破:从Transformer到多模态融合三、跨领域应用:从NLP到通用人工智能四、未来挑战与趋势结语参考链接注意力机制:深度学习的核心革命与未来基石在深度学习的发展历程中,注意力机制(AttentionMechanism)的引入堪称一场革命。它不仅解决了传统模型的根本性缺陷,更通过动态聚焦关键信息的能力,重塑了人工智能处理复杂任务的范式。本文
- <Attention Is All You Need>:全网首次提出Transformer模型论文中英文对照学习
kingking44
transformer学习人工智能
论文摘要英文Thedominantsequencetransductionmodelsarebasedoncomplexrecurrentorconvolutionalneuralnetworksthatincludeanencoderandadecoder.Thebestperformingmodelsalsoconnecttheencoderanddecoderthroughanattenti
- DeepSeek底层揭秘——多头潜在注意力MLA
9命怪猫
AIai人工智能大模型
目录1.多头潜在注意力(MLA)2.核心功能3.技术要素4.难点挑战暨含解决方案5.技术路径6.应用场景7.实际案例:DeepSeek8.最新研究与技术进展9.未来趋势猫哥说1.多头潜在注意力(MLA)(1)定义“多头潜在注意力(Multi-HeadLatentAttention,MLA)”是一种基于注意力机制的深度学习方法,旨在通过多个注意力头(Multi-HeadAttention)对潜在空间
- InfiniteHiP - 在单个GPU上扩展 LLM 上下文至300万tokens
伊织code
#PaperReadingInfiniteHiP推理GPULLMtoken
InfiniteHiP:ExtendingLanguageModelContextUpto3MillionTokensonaSingleGPUPaper:https://huggingface.co/papers/2502.08910Sourcecode:https://github.com/DeepAuto-AI/hip-attention/SGLangIntegrationavailablen
- Transformer
AI专题精讲
深度学习transformer深度学习自然语言处理
1.TransformerTransformer是一种新的、基于attention机制来实现的特征提取器,可用于代替CNN和RNN来提取序列的特征。Transformer首次由论文《AttentionIsAllYouNeed》提出,在该论文中Transformer用于encoder-decoder架构。事实上Transformer可以单独应用于encoder或者单独应用于decoder。Trans
- Python:字典嵌套
lcqin111
python
可以在列表中嵌套字典、在字典中嵌套列表甚至在字典中嵌套字典alien_0={'color':'green','points':5}alien_1={'color':'yellow','points':10}alien_2={'color':'red','points':15}aliens=[alien_0,alien_1,alien_2]foralieninaliens:print(alien)这
- 【JCR一区级】雾凇算法RIME-CNN-BiLSTM-Attention故障诊断分类预测【含Matlab源码 5471期】
Matlab武动乾坤
matlab
Matlab武动乾坤博客之家
- 【SCI2区】雾凇优化算法RIME-CNN-GRU-Attention用电需求预测Matlab实现
matlab科研帮手
算法cnngru
✅作者简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,代码获取、论文复现及科研仿真合作可私信。个人主页:Matlab科研工作室个人信条:格物致知。更多Matlab完整代码及仿真定制内容点击智能优化算法神经网络预测雷达通信无线传感器电力系统信号处理图像处理路径规划元胞自动机
- ViT和Transformer
Landon9
transformer深度学习人工智能
AttentionIsAllYouNeedVit在图像领域直接使用transformer,如果将2d图像直接转为一维向量,会面临参数两过大的问题。后来会思考在卷积之后再使用transformer,例如resNet50模型中,最后一层仅为14×14大小的矩阵。而本文是直接采用transformer模型,只需要对图片做一下预处理。ViT是将图像分为多个16×16的patch一张图像可以被分成多个小的图
- 【Transformer】小白入门指南
静静喜欢大白
随记医疗影像transformer深度学习人工智能
目录1、简介2、Transformer解决问题技术概览核心组成自注意力机制(Self-AttentionMechanism)多头注意力机制(Multi-HeadAttention)前馈神经网络(Feed-ForwardNeuralNetwork)位置编码(PositionalEncoding)残差连接与标准化框架认识1.输入输出2.Encoder3.Decoder4.训练过程5.Positione
- 【AI系列】从零开始学习大模型GPT (2)- Build a Large Language Model (From Scratch)
Tasfa
AI人工智能教程人工智能学习gpt
前序文章【AI系列】从零开始学习大模型GPT(1)-BuildaLargeLanguageModel(FromScratch)BuildaLargeLanguageModel背景第1章:理解大型语言模型第2章:处理文本数据第3章:编码Attention机制什么是Attention机制?Attention机制的基本原理数学表示应用总结为什么要使用注意力机制如何实现?简单注意力机制带训练权重的注意力机
- 【一看就会】Autoware.universe的“规划”部分源码梳理【三十五】(motion_velocity_planner第四部分)
不断学习加努力
算法自动驾驶
文章目录前言四、autoware_motion_velocity_out_of_lane_module功能概述处理流程图输入输出关键算法实现主要参数配置安全参数速度参数检测参数工作流程各文件主要功能核心功能文件:工具类文件:源码注释calculate_slowdown_points.cppfilter_predicted_objects.cppfootprint.cppdebug.cpp总结前言书
- Pytorch实现一个简单DeepSeek中的MLA多头潜在注意力架构
DukeYong
DeepSeek
首先,MLA是什么?可能是指Multi-HeadLocalAttention,即多头局部注意力,这种机制通常用于减少计算量,特别是在处理长序列时,每个头只关注局部区域。比如每个token只注意其周围的一定窗口内的其他token,而不是全局。这可能与传统的Transformer中的滑动窗口或局部注意力类似。接下来,我需要考虑如何将局部注意力与多头机制结合。每个注意力头可能有不同的局部窗口,或者共享相
- 网工必备知识点(Essential Knowledge Points for Internet Workers)
Linux运维老纪
无所畏惧走进计算机网络世界网络服务器运维开发容器云计算
网工必备知识点网络工程师是信息技术领域中不可或缺的职业,负责设计、实施和管理网络系统,确保企业内外部的通信安全、流畅。要成为一名合格的网络工程师,掌握基础知识是必不可少的。一、交换机是一种网络设备,通过学习MAC地址来决定数据包的传输路径,是现代网络中实现高效数据交换的关键设备。二、路由器是一种网络设备,用于在不同网络间路由数据包,实现网络间的通信。它工作在网络层,通过路由表寻址转发数据包。三、防
- transformer
我爱派生
深度学习transformer深度学习人工智能
导语:2017年,一篇名为《AttentionisAllYouNeed》的论文横空出世,提出了Transformer模型,彻底改变了自然语言处理(NLP)领域的格局。Transformer以其独特的结构和强大的性能,迅速成为NLP领域的霸主,并逐渐向其他人工智能领域渗透。本文将带你深入了解Transformer的原理、优势以及应用,探讨其对人工智能发展的深远影响。一、从RNN到Transforme
- Transformer细节(九)——Transformer位置编码
多学学多写写
transformer深度学习人工智能
一、总述Transformer模型中的位置编码(PositionalEncoding)是用于向模型提供序列中各个元素位置信息的机制。由于Transformer没有卷积神经网络或循环神经网络中固有的序列顺序信息,它必须通过位置编码显式地引入这些信息。二、为什么需要位置编码Transformer模型依赖于自注意力机制(self-attentionmechanism),该机制在计算时对序列中的所有位置一
- Bahdanau 注意力
彬彬侠
自然语言处理BahdanauAttention注意力Seq2Seqpytorchpython自然语言处理
Bahdanau注意力(AdditiveAttention)Bahdanau注意力,也被称为加性注意力(AdditiveAttention),是一种广泛用于序列到序列(Seq2Seq)模型中的注意力机制,由DzmitryBahdanau等人在2014年提出。它是处理序列对序列(seq2seq)任务(如机器翻译)的关键技术之一。在Bahdanau提出的模型中,注意力机制通过引入一个额外的上下文信息来
- Rust 中的关键字以及示例
后端rust
1.常见关键字as:用于类型转换,例如将一个值从一种类型转换为另一种类型。letx:i32=42;lety:u8=xasu8;break:用于提前退出循环。foriin0..10{ifi==5{break;}}const:定义一个常量,常量的值在编译时就确定,不会在运行时改变。constMAX_POINTS:u32=100_000;continue:跳过当前循环中的剩余部分,直接进入下一次循环迭代
- 缩放点积注意力(Scaled Dot-Product Attention)
彬彬侠
自然语言处理缩放点积注意力自注意力Self-AttentionTransformerpytorchpython自然语言处理
缩放点积注意力(ScaledDot-ProductAttention)缩放点积注意力(ScaledDot-ProductAttention)是自注意力(Self-Attention)机制的一种变体,它被广泛应用于现代的神经网络架构中,尤其是在Transformer中。它的核心思想是利用输入序列中各个位置的查询(Query)、键(Key)和值(Value)来计算注意力权重,并通过加权求和的方式生成上
- LLM推理优化——PagedAttention初识篇(vLLM初识(二))
荼荼灰
神经网络transformer深度学习
LLM推理优化——PagedAttention初识篇(vLLM初识(二))前言在LLM推理优化——KVCache篇(百倍提速)中,我们已经介绍了KVCache技术的原理,从中我们可以知道,KVCache本质是空间换时间的技术,对于大型模型和长序列,它可能会占用大量内存。实际上LLM从诞生之初就在与内存作斗争,只是计算时间问题更加尖锐,掩盖了这一部分。随着研究的推进,内存问题也变得越来越突出。vLL
- 【NLP算法面经】NLP算法面经 -- 腾讯 VS 美团(附面题)
青松ᵃⁱ
NLP百面百过AI面试NLP面试算法面试人工智能
博客主页:[青松]目录【NLP百面百过】大模型算法高频面题(全面整理ʘ‿ʘ)一、大模型(LLMs)基础面大模型(LLMs)架构篇注意力机制(Attention)篇Transformer理论篇二、大模型微调面有监督微调(SFT)篇高效微调篇提示学习篇人类对齐训练(RLHF)篇Prompt工程篇三、大模型进阶面大模型压缩篇分布式训练篇大模型魔改篇四、NLP任务实战面文本分类篇命名实体识别(NER)篇关
- 云上一键部署 DeepSeek-V3 模型,阿里云PAI Model Gallery 最佳实践
DeepSeek-V3模型简介DeepSeek-V3是DeepSeek发布的MoE(Mixture-of-Experts)大语言模型,总参数量为6710亿,每个token激活的参数量为370亿。为了实现高效的推理和成本效益的训练,DeepSeek-V3采用了MLA(Multi-headLatentAttention)和DeepSeekMoE架构。此外,DeepSeek-V3首次引入了一种无需辅助损
- Transformer:基于注意力机制的序列转换模型
金外飞176
论文精读transformer深度学习人工智能
Transformer:基于注意力机制的序列转换模型最近,我研究了一篇非常有趣的论文——《AttentionIsAllYouNeed》,由GoogleBrain团队的AshishVaswani等人撰写。这篇论文提出了一种全新的神经网络架构——Transformer,它完全基于注意力机制,摒弃了传统的循环(RNN)和卷积(CNN)网络结构,用于序列转换任务,如机器翻译和英语成分句法分析等。Trans
- StripedHyena 模型介绍
qq_27390023
深度学习python机器学习pytorch生物信息学
StripedHyena是近年来提出的一种新型神经网络架构,旨在替代或补充传统的Transformer模型。其核心目标是解决Transformer在处理长序列数据时的计算效率瓶颈(如自注意力机制的高复杂度),同时保持或提升模型在语言建模、长上下文理解等任务上的性能。发明背景(1)Transformer的局限性Transformer模型因其自注意力机制(Self-Attention)在自然语言处理(
- Transformer 的辉煌与大模型方向确立,点燃AGI之火把
dingcb168
搜索引擎自然语言处理
GPT3,指明大模型发展方向,点燃大模型软件行业繁荣之火,目前大模型有100万个。DeepSeek-V3,指明下一个阶段大模型发张方向,破壁:资金壁垒:训练成本降低,适配丰富硬件,总过进一步降低资金需求。技术壁垒:模型,技术,开源CUDA壁垒:PTX编程更加底层,大量中国硬件公司,可以适配Transformer架构的奠基2017年,Vaswani等人发表了开创性论文《AttentionisAllY
- java Illegal overloaded getter method with ambiguous type for propert的解决
zwllxs
javajdk
好久不来iteye,今天又来看看,哈哈,今天碰到在编码时,反射中会抛出
Illegal overloaded getter method with ambiguous type for propert这么个东东,从字面意思看,是反射在获取getter时迷惑了,然后回想起java在boolean值在生成getter时,分别有is和getter,也许我们的反射对象中就有is开头的方法迷惑了jdk,
- IT人应当知道的10个行业小内幕
beijingjava
工作互联网
10. 虽然IT业的薪酬比其他很多行业要好,但有公司因此视你为其“佣人”。
尽管IT人士的薪水没有互联网泡沫之前要好,但和其他行业人士比较,IT人的薪资还算好点。在接下的几十年中,科技在商业和社会发展中所占分量会一直增加,所以我们完全有理由相信,IT专业人才的需求量也不会减少。
然而,正因为IT人士的薪水普遍较高,所以有些公司认为给了你这么多钱,就把你看成是公司的“佣人”,拥有你的支配
- java 实现自定义链表
CrazyMizzz
java数据结构
1.链表结构
链表是链式的结构
2.链表的组成
链表是由头节点,中间节点和尾节点组成
节点是由两个部分组成:
1.数据域
2.引用域
3.链表的实现
&nbs
- web项目发布到服务器后图片过一会儿消失
麦田的设计者
struts2上传图片永久保存
作为一名学习了android和j2ee的程序员,我们必须要意识到,客服端和服务器端的交互是很有必要的,比如你用eclipse写了一个web工程,并且发布到了服务器(tomcat)上,这时你在webapps目录下看到了你发布的web工程,你可以打开电脑的浏览器输入http://localhost:8080/工程/路径访问里面的资源。但是,有时你会突然的发现之前用struts2上传的图片
- CodeIgniter框架Cart类 name 不能设置中文的解决方法
IT独行者
CodeIgniterCart框架
今天试用了一下CodeIgniter的Cart类时遇到了个小问题,发现当name的值为中文时,就写入不了session。在这里特别提醒一下。 在CI手册里也有说明,如下:
$data = array(
'id' => 'sku_123ABC',
'qty' => 1,
'
- linux回收站
_wy_
linux回收站
今天一不小心在ubuntu下把一个文件移动到了回收站,我并不想删,手误了。我急忙到Nautilus下的回收站中准备恢复它,但是里面居然什么都没有。 后来我发现这是由于我删文件的地方不在HOME所在的分区,而是在另一个独立的Linux分区下,这是我专门用于开发的分区。而我删除的东东在分区根目录下的.Trash-1000/file目录下,相关的删除信息(删除时间和文件所在
- jquery回到页面顶端
知了ing
htmljquerycss
html代码:
<h1 id="anchor">页面标题</h1>
<div id="container">页面内容</div>
<p><a href="#anchor" class="topLink">回到顶端</a><
- B树、B-树、B+树、B*树
矮蛋蛋
B树
原文地址:
http://www.cnblogs.com/oldhorse/archive/2009/11/16/1604009.html
B树
即二叉搜索树:
1.所有非叶子结点至多拥有两个儿子(Left和Right);
&nb
- 数据库连接池
alafqq
数据库连接池
http://www.cnblogs.com/xdp-gacl/p/4002804.html
@Anthor:孤傲苍狼
数据库连接池
用MySQLv5版本的数据库驱动没有问题,使用MySQLv6和Oracle的数据库驱动时候报如下错误:
java.lang.ClassCastException: $Proxy0 cannot be cast to java.sql.Connec
- java泛型
百合不是茶
java泛型
泛型
在Java SE 1.5之前,没有泛型的情况的下,通过对类型Object的引用来实现参数的“任意化”,任意化的缺点就是要实行强制转换,这种强制转换可能会带来不安全的隐患
泛型的特点:消除强制转换 确保类型安全 向后兼容
简单泛型的定义:
泛型:就是在类中将其模糊化,在创建对象的时候再具体定义
class fan
- javascript闭包[两个小测试例子]
bijian1013
JavaScriptJavaScript
一.程序一
<script>
var name = "The Window";
var Object_a = {
name : "My Object",
getNameFunc : function(){
var that = this;
return function(){
- 探索JUnit4扩展:假设机制(Assumption)
bijian1013
javaAssumptionJUnit单元测试
一.假设机制(Assumption)概述 理想情况下,写测试用例的开发人员可以明确的知道所有导致他们所写的测试用例不通过的地方,但是有的时候,这些导致测试用例不通过的地方并不是很容易的被发现,可能隐藏得很深,从而导致开发人员在写测试用例时很难预测到这些因素,而且往往这些因素并不是开发人员当初设计测试用例时真正目的,
- 【Gson四】范型POJO的反序列化
bit1129
POJO
在下面这个例子中,POJO(Data类)是一个范型类,在Tests中,指定范型类为PieceData,POJO初始化完成后,通过
String str = new Gson().toJson(data);
得到范型化的POJO序列化得到的JSON串,然后将这个JSON串反序列化为POJO
import com.google.gson.Gson;
import java.
- 【Spark八十五】Spark Streaming分析结果落地到MySQL
bit1129
Stream
几点总结:
1. DStream.foreachRDD是一个Output Operation,类似于RDD的action,会触发Job的提交。DStream.foreachRDD是数据落地很常用的方法
2. 获取MySQL Connection的操作应该放在foreachRDD的参数(是一个RDD[T]=>Unit的函数类型),这样,当foreachRDD方法在每个Worker上执行时,
- NGINX + LUA实现复杂的控制
ronin47
nginx lua
安装lua_nginx_module 模块
lua_nginx_module 可以一步步的安装,也可以直接用淘宝的OpenResty
Centos和debian的安装就简单了。。
这里说下freebsd的安装:
fetch http://www.lua.org/ftp/lua-5.1.4.tar.gz
tar zxvf lua-5.1.4.tar.gz
cd lua-5.1.4
ma
- java-递归判断数组是否升序
bylijinnan
java
public class IsAccendListRecursive {
/*递归判断数组是否升序
* if a Integer array is ascending,return true
* use recursion
*/
public static void main(String[] args){
IsAccendListRecursiv
- Netty源码学习-DefaultChannelPipeline2
bylijinnan
javanetty
Netty3的API
http://docs.jboss.org/netty/3.2/api/org/jboss/netty/channel/ChannelPipeline.html
里面提到ChannelPipeline的一个“pitfall”:
如果ChannelPipeline只有一个handler(假设为handlerA)且希望用另一handler(假设为handlerB)
来
- Java工具之JPS
chinrui
java
JPS使用
熟悉Linux的朋友们都知道,Linux下有一个常用的命令叫做ps(Process Status),是用来查看Linux环境下进程信息的。同样的,在Java Virtual Machine里面也提供了类似的工具供广大Java开发人员使用,它就是jps(Java Process Status),它可以用来
- window.print分页打印
ctrain
window
function init() {
var tt = document.getElementById("tt");
var childNodes = tt.childNodes[0].childNodes;
var level = 0;
for (var i = 0; i < childNodes.length; i++) {
- 安装hadoop时 执行jps命令Error occurred during initialization of VM
daizj
jdkhadoopjps
在安装hadoop时,执行JPS出现下面错误
[slave16]
[email protected]:/tmp/hsperfdata_hdfs# jps
Error occurred during initialization of VM
java.lang.Error: Properties init: Could not determine current working
- PHP开发大型项目的一点经验
dcj3sjt126com
PHP重构
一、变量 最好是把所有的变量存储在一个数组中,这样在程序的开发中可以带来很多的方便,特别是当程序很大的时候。变量的命名就当适合自己的习惯,不管是用拼音还是英语,至少应当有一定的意义,以便适合记忆。变量的命名尽量规范化,不要与PHP中的关键字相冲突。 二、函数 PHP自带了很多函数,这给我们程序的编写带来了很多的方便。当然,在大型程序中我们往往自己要定义许多个函数,几十
- android笔记之--向网络发送GET/POST请求参数
dcj3sjt126com
android
使用GET方法发送请求
private static boolean sendGETRequest (String path,
Map<String, String> params) throws Exception{
//发送地http://192.168.100.91:8080/videoServi
- linux复习笔记 之bash shell (3) 通配符
eksliang
linux 通配符linux通配符
转载请出自出处:
http://eksliang.iteye.com/blog/2104387
在bash的操作环境中有一个非常有用的功能,那就是通配符。
下面列出一些常用的通配符,如下表所示 符号 意义 * 万用字符,代表0个到无穷个任意字符 ? 万用字符,代表一定有一个任意字符 [] 代表一定有一个在中括号内的字符。例如:[abcd]代表一定有一个字符,可能是a、b、c
- Android关于短信加密
gqdy365
android
关于Android短信加密功能,我初步了解的如下(只在Android应用层试验):
1、因为Android有短信收发接口,可以调用接口完成短信收发;
发送过程:APP(基于短信应用修改)接受用户输入号码、内容——>APP对短信内容加密——>调用短信发送方法Sm
- asp.net在网站根目录下创建文件夹
hvt
.netC#hovertreeasp.netWeb Forms
假设要在asp.net网站的根目录下建立文件夹hovertree,C#代码如下:
string m_keleyiFolderName = Server.MapPath("/hovertree");
if (Directory.Exists(m_keleyiFolderName))
{
//文件夹已经存在
return;
}
else
{
try
{
D
- 一个合格的程序员应该读过哪些书
justjavac
程序员书籍
编者按:2008年8月4日,StackOverflow 网友 Bert F 发帖提问:哪本最具影响力的书,是每个程序员都应该读的?
“如果能时光倒流,回到过去,作为一个开发人员,你可以告诉自己在职业生涯初期应该读一本, 你会选择哪本书呢?我希望这个书单列表内容丰富,可以涵盖很多东西。”
很多程序员响应,他们在推荐时也写下自己的评语。 以前就有国内网友介绍这个程序员书单,不过都是推荐数
- 单实例实践
跑龙套_az
单例
1、内部类
public class Singleton {
private static class SingletonHolder {
public static Singleton singleton = new Singleton();
}
public Singleton getRes
- PO VO BEAN 理解
q137681467
VODTOpo
PO:
全称是 persistant object持久对象 最形象的理解就是一个PO就是数据库中的一条记录。 好处是可以把一条记录作为一个对象处理,可以方便的转为其它对象。
BO:
全称是 business object:业务对象 主要作用是把业务逻辑封装为一个对象。这个对
- 战胜惰性,暗自努力
金笛子
努力
偶然看到一句很贴近生活的话:“别人都在你看不到的地方暗自努力,在你看得到的地方,他们也和你一样显得吊儿郎当,和你一样会抱怨,而只有你自己相信这些都是真的,最后也只有你一人继续不思进取。”很多句子总在不经意中就会戳中一部分人的软肋,我想我们每个人的周围总是有那么些表现得“吊儿郎当”的存在,是否你就真的相信他们如此不思进取,而开始放松了对自己的要求随波逐流呢?
我有个朋友是搞技术的,平时嘻嘻哈哈,以
- NDK/JNI二维数组多维数组传递
wenzongliang
二维数组jniNDK
多维数组和对象数组一样处理,例如二维数组里的每个元素还是一个数组 用jArray表示,直到数组变为一维的,且里面元素为基本类型,去获得一维数组指针。给大家提供个例子。已经测试通过。
Java_cn_wzl_FiveChessView_checkWin( JNIEnv* env,jobject thiz,jobjectArray qizidata)
{
jint i,j;
int s