- ZATA的文学和幽默知识积累
ZhangTao_zata
知识积累
雅文来源内容王阳明《传习录》心虽主于一身,而实管乎天下之理;理虽散在万事,而实不外于一人之心。马克·吐温一个会讲故事的人,比十个只会讲道理的人更有吸引力。名言世间所有相遇,都是久别重逢,不负相遇,不负离别。鲁迅名言真正的幽默,是从痛苦中开出的花朵。段子–努力这么久,终于考上了抑郁证;我不是无路可走,我还有死路一条;那些杀不死我的,还不如直接杀死我;
- Mooncake:kimi后端推理服务的架构设计
风生水气
大模型应用技术栈大模型人工智能ai语言模型后端
前言本文依托论文《Mooncake:AKVCache-centricDisaggregatedArchitectureforLLMServing》来讲解kimi的后端服务架构Mooncake,并按照自己的思路来梳理论文中的一些关键信息。背景服务端面临的问题随着大模型技术越来越强,很多应用都是以Maas(ModelasaService)的方式对外提供服务,服务端的能力受模型的能力约束。对于C端应用来
- KTransformers:告别天价显卡!国产框架让单卡24G显存跑DeepSeek-R1 671B大模型:推理速度飙升28倍
蚝油菜花
每日AI项目与应用实例人工智能开源
❤️如果你也关注AI的发展现状,且对AI应用开发感兴趣,我会每日分享大模型与AI领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!微信公众号|搜一搜:蚝油菜花“还在为千亿模型租天价显卡?清华团队用CPU/GPU协同计算,让4090跑起671B参数全量模型!”大家好,我是蚝油菜花。如果你也经历过——看着API调用账单瑟瑟发抖,微调一次模型吃掉半月算力预算️盯着OOM报错抓狂,为了
- 【vLLM 学习】安装
vLLM是一款专为大语言模型推理加速而设计的框架,实现了KV缓存内存几乎零浪费,解决了内存管理瓶颈问题。更多vLLM中文文档及教程可访问→https://vllm.hyper.ai/vLLM是一个Python库,包含预编译的C++和CUDA(12.1)二进制文件。依赖环境操作系统:LinuxPython:3.8-3.12GPU:计算能力7.0或更高(例如V100、T4、RTX20xx、A100、L
- 读算法简史:从美索不达米亚到人工智能时代15读后总结与感想兼导读
躺柒
人工智能算法导读总结AI
1.基本信息算法简史:从美索不达米亚到人工智能时代克里斯·布利克利著中信出版集团股份有限公司,2024年9月出版1.1.读薄率书籍总字数18.6万字,笔记总字数51653字。读薄率51653÷186000≈27.77%1.2.读厚方向当我点击时,算法在想什么?算法霸权极简算法史:从数学到机器的故事算法的陷阱:超级平台、算法垄断与场景欺骗天才与算法:人脑与AI的数学思维算法图解1.3.笔记--章节对
- LLaMA3大模型技术全网最全解析——模型架构与训练方法(收录于GPT-4/ChatGPT技术与产业分析)
chenweiPhD
人工智能深度学习语言模型架构
Meta在周四(4月18日)发布了其最新大型语言模型LLaMA3。该模型将被集成到其虚拟助手MetaAI中。Meta自称8B和70B的LLaMA3是当今8B和70B参数规模的最佳模型,并在推理、代码生成和指令跟踪方面有了很大进步。(点赞是我们分享的动力)--------------------------------------------------主编作者陈巍博士,高级职称,曾担任华为系相关自
- DeepSeek正重构具身大模型和人形机器人赛道!
Robot251
重构机器人人工智能科技自动驾驶
中国人工智能公司DeepSeek(深度求索)以“低成本、高效率、强开放”的研发范式横空出世,火遍并震撼全球科技圈;DeepSeek展现出来的核心竞争力,除了低成本及推理能力,更重要的是开源模型能力追赶上了最新的闭源模型;而对具身智能领域影响最大的当属于其开源大模型DeepSeek-R1。2024年1月20日,公司发布全球首个完全通过强化学习训练的专注于推理任务的高性能语言模型DeepSeek-R1
- 人工智能推理模型(S1-32B)超越DeepSeek?
deepdata_cn
垂域模型人工智能人工智能大语言模型
S1模型是由斯坦福大学和华盛顿大学的研究团队在李飞飞教授的领衔下开发的人工智能推理模型。从2000年李飞飞进入加州理工学院攻读研究生起,就一直从事人工智能研究,在计算机视觉领域创立了拥有1500万张图片的ImageNet数据库,为人工智能计算机视觉研究奠定了基础,也积累了深厚的人工智能技术理论和实践经验。论文地址:https://arxiv.org/pdf/2501.19393一、发展过程模型采用
- 激发你的计算机领域写作潜能**
爱编程的Loren
活动文章活动文章
####挑战活动启动公告 亲爱的大学生博主们: 我们相信每一个拥有创作热情的你们都是故事的发现者和叙述者。这次,我们特地举办一项为期14天的创作挑战赛,诚邀各位热爱写作、想要展现自己才华的小伙伴们积极参与,一起探索写作的魅力,书写属于我们的故事。 **一、活动背景** 为了鼓励大学生博主们挖掘自己的创作潜能,展现自己的写作才华,我们特别策划了这次以计算机领域为主题的创作活动。我们期待你
- onnx 推理报错:onnxruntime.capi.onnxruntime_pybind11_state.Fail: [ONNXRuntimeError] : 1 : FAIL : Load mo
fengsongdehappy
python
onnx模型不匹配有可能是你转换的是gpu但是推理是cpu,也可能版本不兼容导致,因此卸载cpu版本,重新安装gpu版本或者升级gpu版本pipuninstallonnxruntime-gpupipinstall-ihttps://pypi.tuna.tsinghua.edu.cn/simpleonnxruntime-gpu
- Deepseek与doubao|tongyi|wenxin三个大模型对比编写数据处理脚本
AI技术老狗(QA)
Deepseek大模型AI编写脚本
DeepSeek在编写脚本方面的能力非常强大,尤其在编程、推理和数学计算方面展现出了超越普通AI的能力。DeepSeek的核心优势在于其编程能力的显著提高,能够轻松应对前端脚本和后端逻辑的编写,大大降低了程序员编写代码的难度。今天我们就对比下deepseek、豆包、通义千问、文心一言这四个进行一下对比,对比的题目为:《帮我写一个处理excel数据的python脚本,要求:100万条数据,去除重
- 产品经理学习——AI产品
Li灿灿
产品经理学习人工智能
本篇文章,主要是针对目前不同类型AI公司的产品经理职责和AI产品经理的模型进行介绍。AI产品分类AI产品分为软件型和软硬件结合型,软件型的AI产品主要是具备理解、推理和决策能力的AI,如NLP(自然语言处理)系统或者创造类,创作型内容如音乐、艺术和写作等。软硬结合型AI产品一般和传统领域相关,如医疗AI、教育AI和零售AI等。有些公司是纯粹的AI公司,对应的特点是专注于做底层的算法,做芯片技术,纯
- GitHub 热点项目介绍
tomlone
技术热点人工智能
Oumi-端到端的基础模型平台项目简介Oumi是一个全开源平台,旨在解决大模型在各个阶段面临的复杂问题,提供构建先进端到端基础模型所需的一切,涵盖数据准备、训练、评估和部署等环节。项目链接GitHub-oumi-ai/oumi特点提供一致的API、生产级可靠性及研究所需的灵活性。已与13所研究型大学的学者建立合作。可通过pip安装并使用CRI命令进行模型训练、评估和推理。项目中还提供了详细的not
- DeepSeek为什么超越了OpenAI
deepseek
DeepSeek的超越源于四大关键差异:技术架构的垂直整合优势、数据策略的动态闭环设计、商业模式的场景化落地能力、行业定位的差异化突围。其中,技术架构的突破最具革命性——DeepSeek创造性地采用"混合专家系统+领域预训练"架构,在特定领域的推理效率比OpenAI的GPT-4提升40%以上(根据2023年MLPerch基准测试)。这种技术路线选择,使其在医疗诊断、工业质检等垂直场景的准确率达到9
- DeepSeek-R1-Zero 与 DeepSeek-R1 的异同与优劣分析
AI生成曾小健
Deepseek原理与使用人工智能
DeepSeek-R1-Zero与DeepSeek-R1的异同与优劣分析一、相同点核心训练方法:两者均基于强化学习(RL),采用GroupRelativePolicyOptimization(GRPO)算法,通过组内样本的奖励相对比较优化策略模型。目标均为提升语言模型的复杂推理能力(如数学、代码、科学推理)。基础模型:均以DeepSeek-V3-Base作为初始模型,共享相同的架构
- DeepSeek 大模型离线 Docker 部署技术指南
容器的搬运工
dockereureka容器
一、部署架构概述DeepSeek离线部署采用容器化微服务架构,核心组件包括:模型服务层:基于TritonInferenceServer的模型推理容器API网关层:FastAPI实现的REST/gRPC接口服务资源管理层:CUDA-awareDocker运行时+NVIDIAGPU资源调度持久化存储:模型参数与配置文件的Volume挂载方案二、系统环境要求2.1硬件规格组件最低要求推荐配置CPUX86
- 大模型参数高效微调(PEFT)技术解析及微调加速实践
AI产品经理
人工智能自然语言处理深度学习语言模型
2023年,大模型如雨后春笋般爆发,58同城TEG-AILab作为AI平台部门,紧跟大语言模型技术发展步伐,打造了大语言模型平台,支持大语言模型训练和推理部署,并基于大语言模型平台构建了58同城生活服务领域(房产、招聘、汽车、黄页)垂类大模型灵犀大语言模型(ChatLing),支撑了业务方大模型应用的探索落地。灵犀大语言模型在公开评测集和实际应用场景下,效果均优于开源通用大语言模型以及商用通用大语
- 清华大学KVCache.AI团队联合趋境科技联合的KTransformers开源项目为什么那么厉害
魔王阿卡纳兹
IT杂谈人工智能科技开源清华DeepSeek趋境科技KTransformers
KTransformers是一个由清华大学KVAV.AI团队开发的开源项目,旨在优化大语言模型(LLM)的推理性能,特别是在有限显存资源下运行大型模型。以下是KTransformers的详细介绍:1.核心特点高性能优化:KTransformers通过内核级优化、多GPU并行策略和稀疏注意力等技术,显著加速模型推理速度,降低硬件门槛。灵活扩展性:KTransformers是一个以Python为中心的
- SpringBoot 接入 豆包 火山方舟大模型
.993
springboot后端java
火山方舟控制台开通模型推理、知识库应用入口;文档中心各类接口说明及SDK获取;向量数据库VikingDB文档下翻找到有java操作案例;实现目标功能效果:通过SDK调用豆包大模型,在代码内实现问答的效果;官方示例通过使用知识库,自己上传文档。让豆包大模型可以回答你文档中的内容数据(即自定义属于你自己(自身业务领域)的大模型);前置步骤:点击右上角头像处去创建API访问密钥;控制台内模型推理-在线推
- 大模型转换为 GGUF
奔跑中的小象
AIGGUF
一、GGUF介绍GGUF格式的全名为(GPT-GeneratedUnifiedFormat),提到GGUF就不得不提到它的前身GGML(GPT-GeneratedModelLanguage)。GGML是专门为了机器学习设计的张量库,最早可以追溯到2022/10。其目的是为了有一个单文件共享的格式,并且易于在不同架构的GPU和CPU上进行推理。但在后续的开发中,遇到了灵活性不足、相容性及难以维护的问
- 通义模型Prompt调优的实用技巧
大模型实战
prompt
1.目录1.prompt工程简介2.Prompt设计2.1Prompt主要构成要素2.2Prompt编写策略策略一:对较难被准确遵循的复杂规则可拆分为多条规则,有助于提升效果策略二:适当冗余关键信息策略三:使用分隔符给Prompt分段策略四:增加学习示例策略五:编写清晰地说明-指定任务所需的步骤策略六:让大模型反思自己的推理过程策略七:语音场景下的prompt要点策略八:判断型的任务,建议先给依据
- 开源大模型性能追平闭源模型技术路径分析
Mr' 郑
开源
(预测实现时间:2025Q2)开源模型进化路径MoE架构稀疏训练分布式RLHF2024突破2023现状2025超越性能反超一、现状对比与瓶颈分析(2024Q3)1.核心差距量化指标能力维度闭源模型均值开源模型均值差距比例复杂推理(MMLU)86.7%79.2%8.7%代码生成(HumanEval)89.1%81.4%8.5%长文本理解(NarrativeQA)82.3%73.9%10.2%多模态理
- DeepSeek接入Python,一般电脑也能飞速跑,确实可以封神了!
算法channel
python开发语言
你好,我是郭震今天这篇教程介绍:DeepSeep最新推理模型R1接入Python编程,在本地电脑从零搭建方法。1这样做有哪些好处?1)大模型在本地搭建,除了能够方便个人知识库管理,详见上一篇介绍,还能提效编程学习,比如Python,Java等,学编程就像学做事的思路和逻辑,挺重要也很有意思。2)DeepSeek最近开源了推理模型R1,开源免费,性能强劲,本文接入的正是DeepSeek的R1;Pyt
- 解决珠玑妙算游戏问题:C 语言实现
共享家9527
c语言
一、引言珠玑妙算游戏(thegameofmastermind)是一个有趣的逻辑推理游戏。在编程领域,我们可以通过编写代码来模拟游戏中计算猜中与伪猜中次数的过程。本文将详细介绍如何使用C语言实现这一功能,并对核心代码进行解析。二、游戏规则回顾在珠玑妙算游戏中,计算机有4个槽,每个槽放一个球,颜色可能是红色(R)、黄色(Y)、绿色(G)或蓝色(B)。玩家需要猜测颜色组合。如果猜对某个槽的颜色和位置,算
- c++加载TensorRT调用深度学习模型方法
feibaoqq
深度学习深度学习YOLO
使用TensorRT来调用训练好的模型并输出结果是一个高效的推理过程,特别是在需要低延迟和高吞吐量的应用场景中。以下是一个基本的步骤指南,展示了如何在C++中使用TensorRT进行推理。步骤1:准备环境安装TensorRT:确保你已经安装了NVIDIATensorRT库。准备模型:确保你的训练好的模型已经转换为TensorRT支持的格式,通常是一个.engine文件。你可以使用onnx-tens
- AI大模型(如GPT、BERT等)可以通过自然语言处理(NLP)和机器学习技术,显著提升测试效率
小赖同学啊
python人工智能自动化测试(apppcAPI)人工智能自然语言处理gpt
在软件测试中,AI大模型(如GPT、BERT等)可以通过自然语言处理(NLP)和机器学习技术,显著提升测试效率。以下是几个具体的应用场景及对应的代码实现示例:1.自动生成测试用例AI大模型可以根据需求文档或用户故事自动生成测试用例。代码示例(使用OpenAIGPTAPI):importopenai#设置OpenAIAPI密钥openai.api_key="your-openai-api-key"#
- 使用CerebriumAI进行大规模语言模型的推理
qahaj
语言模型人工智能自然语言处理python
使用CerebriumAI进行大规模语言模型的推理技术背景介绍在人工智能的领域中,模型推理的计算资源需求非常高。传统的CPU在处理大规模语言模型(LLM)时效率较低,GPU成为了首选。然而,自行搭建GPU环境成本高昂且维护复杂。CerebriumAI提供了一种无服务器的GPU基础设施,解决了这一难题,从而能够更方便地进行大规模模型的推理。核心原理解析CerebriumAI通过API的方式提供GPU
- 超火的Deepseek的MOE架构是什么?
魔王阿卡纳兹
大模型知识札记架构DeepSeekMoE大模型
DeepSeek的MOE(MixtureofExperts,混合专家)架构是一种基于专家模型(MixtureofExperts)的深度学习框架,旨在通过动态选择和激活部分专家模块来提高计算效率和模型性能。以下是对其核心特点和工作原理的详细介绍:1.核心概念与架构MOE架构的基本思想是将模型划分为多个“专家”模块,每个专家专注于处理特定类型的任务或数据特征。在推理时,通过门控机制(GatingMec
- 华为昇腾部署 DeepSeek-R1 (671B) 大模型实战指南
歌刎
模型部署最前沿的大模型训练部署实践手册华为服务器ai人工智能AIGC
概述本指南详细讲解如何在华为昇腾Atlas800IA2服务器集群上部署DeepSeek-R1671B大模型,涵盖从环境准备到服务化部署的全流程。通过本教程,您将掌握:模型权重转换与量化方法昇腾专用镜像的使用技巧多机分布式推理配置生产级服务化部署方案一、部署前准备1.1硬件要求部署类型服务器配置显存要求BF16推理4台Atlas800IA28*64GBW8A8量化推理2台Atlas800IA28*6
- Bengio新作Aaren:探索Transformer性能与RNN效率的融合
AI记忆
深度学习论文与相关应用transformerrnn深度学习AarenBengio
论文链接:https://arxiv.org/pdf/2405.13956一、摘要总结:本文提出了一种新的注意力机制,名为Aaren,它将注意力视为一种特殊的递归神经网络(RNN),能够高效地计算其多对一RNN输出。Aaren不仅能够并行训练,而且能够在推理时高效地更新新令牌,仅需要常数内存。实验表明,Aaren在四个流行的序列问题设置(强化学习、事件预测、时间序列分类和时间序列预测)的38个数据
- 项目中 枚举与注解的结合使用
飞翔的马甲
javaenumannotation
前言:版本兼容,一直是迭代开发头疼的事,最近新版本加上了支持新题型,如果新创建一份问卷包含了新题型,那旧版本客户端就不支持,如果新创建的问卷不包含新题型,那么新旧客户端都支持。这里面我们通过给问卷类型枚举增加自定义注解的方式完成。顺便巩固下枚举与注解。
一、枚举
1.在创建枚举类的时候,该类已继承java.lang.Enum类,所以自定义枚举类无法继承别的类,但可以实现接口。
- 【Scala十七】Scala核心十一:下划线_的用法
bit1129
scala
下划线_在Scala中广泛应用,_的基本含义是作为占位符使用。_在使用时是出问题非常多的地方,本文将不断完善_的使用场景以及所表达的含义
1. 在高阶函数中使用
scala> val list = List(-3,8,7,9)
list: List[Int] = List(-3, 8, 7, 9)
scala> list.filter(_ > 7)
r
- web缓存基础:术语、http报头和缓存策略
dalan_123
Web
对于很多人来说,去访问某一个站点,若是该站点能够提供智能化的内容缓存来提高用户体验,那么最终该站点的访问者将络绎不绝。缓存或者对之前的请求临时存储,是http协议实现中最核心的内容分发策略之一。分发路径中的组件均可以缓存内容来加速后续的请求,这是受控于对该内容所声明的缓存策略。接下来将讨web内容缓存策略的基本概念,具体包括如如何选择缓存策略以保证互联网范围内的缓存能够正确处理的您的内容,并谈论下
- crontab 问题
周凡杨
linuxcrontabunix
一: 0481-079 Reached a symbol that is not expected.
背景:
*/5 * * * * /usr/IBMIHS/rsync.sh
- 让tomcat支持2级域名共享session
g21121
session
tomcat默认情况下是不支持2级域名共享session的,所有有些情况下登陆后从主域名跳转到子域名会发生链接session不相同的情况,但是只需修改几处配置就可以了。
打开tomcat下conf下context.xml文件
找到Context标签,修改为如下内容
如果你的域名是www.test.com
<Context sessionCookiePath="/path&q
- web报表工具FineReport常用函数的用法总结(数学和三角函数)
老A不折腾
Webfinereport总结
ABS
ABS(number):返回指定数字的绝对值。绝对值是指没有正负符号的数值。
Number:需要求出绝对值的任意实数。
示例:
ABS(-1.5)等于1.5。
ABS(0)等于0。
ABS(2.5)等于2.5。
ACOS
ACOS(number):返回指定数值的反余弦值。反余弦值为一个角度,返回角度以弧度形式表示。
Number:需要返回角
- linux 启动java进程 sh文件
墙头上一根草
linuxshelljar
#!/bin/bash
#初始化服务器的进程PId变量
user_pid=0;
robot_pid=0;
loadlort_pid=0;
gateway_pid=0;
#########
#检查相关服务器是否启动成功
#说明:
#使用JDK自带的JPS命令及grep命令组合,准确查找pid
#jps 加 l 参数,表示显示java的完整包路径
#使用awk,分割出pid
- 我的spring学习笔记5-如何使用ApplicationContext替换BeanFactory
aijuans
Spring 3 系列
如何使用ApplicationContext替换BeanFactory?
package onlyfun.caterpillar.device;
import org.springframework.beans.factory.BeanFactory;
import org.springframework.beans.factory.xml.XmlBeanFactory;
import
- Linux 内存使用方法详细解析
annan211
linux内存Linux内存解析
来源 http://blog.jobbole.com/45748/
我是一名程序员,那么我在这里以一个程序员的角度来讲解Linux内存的使用。
一提到内存管理,我们头脑中闪出的两个概念,就是虚拟内存,与物理内存。这两个概念主要来自于linux内核的支持。
Linux在内存管理上份为两级,一级是线性区,类似于00c73000-00c88000,对应于虚拟内存,它实际上不占用
- 数据库的单表查询常用命令及使用方法(-)
百合不是茶
oracle函数单表查询
创建数据库;
--建表
create table bloguser(username varchar2(20),userage number(10),usersex char(2));
创建bloguser表,里面有三个字段
&nbs
- 多线程基础知识
bijian1013
java多线程threadjava多线程
一.进程和线程
进程就是一个在内存中独立运行的程序,有自己的地址空间。如正在运行的写字板程序就是一个进程。
“多任务”:指操作系统能同时运行多个进程(程序)。如WINDOWS系统可以同时运行写字板程序、画图程序、WORD、Eclipse等。
线程:是进程内部单一的一个顺序控制流。
线程和进程
a. 每个进程都有独立的
- fastjson简单使用实例
bijian1013
fastjson
一.简介
阿里巴巴fastjson是一个Java语言编写的高性能功能完善的JSON库。它采用一种“假定有序快速匹配”的算法,把JSON Parse的性能提升到极致,是目前Java语言中最快的JSON库;包括“序列化”和“反序列化”两部分,它具备如下特征:  
- 【RPC框架Burlap】Spring集成Burlap
bit1129
spring
Burlap和Hessian同属于codehaus的RPC调用框架,但是Burlap已经几年不更新,所以Spring在4.0里已经将Burlap的支持置为Deprecated,所以在选择RPC框架时,不应该考虑Burlap了。
这篇文章还是记录下Burlap的用法吧,主要是复制粘贴了Hessian与Spring集成一文,【RPC框架Hessian四】Hessian与Spring集成
 
- 【Mahout一】基于Mahout 命令参数含义
bit1129
Mahout
1. mahout seqdirectory
$ mahout seqdirectory
--input (-i) input Path to job input directory(原始文本文件).
--output (-o) output The directory pathna
- linux使用flock文件锁解决脚本重复执行问题
ronin47
linux lock 重复执行
linux的crontab命令,可以定时执行操作,最小周期是每分钟执行一次。关于crontab实现每秒执行可参考我之前的文章《linux crontab 实现每秒执行》现在有个问题,如果设定了任务每分钟执行一次,但有可能一分钟内任务并没有执行完成,这时系统会再执行任务。导致两个相同的任务在执行。
例如:
<?
//
test
.php
- java-74-数组中有一个数字出现的次数超过了数组长度的一半,找出这个数字
bylijinnan
java
public class OcuppyMoreThanHalf {
/**
* Q74 数组中有一个数字出现的次数超过了数组长度的一半,找出这个数字
* two solutions:
* 1.O(n)
* see <beauty of coding>--每次删除两个不同的数字,不改变数组的特性
* 2.O(nlogn)
* 排序。中间
- linux 系统相关命令
candiio
linux
系统参数
cat /proc/cpuinfo cpu相关参数
cat /proc/meminfo 内存相关参数
cat /proc/loadavg 负载情况
性能参数
1)top
M:按内存使用排序
P:按CPU占用排序
1:显示各CPU的使用情况
k:kill进程
o:更多排序规则
回车:刷新数据
2)ulimit
ulimit -a:显示本用户的系统限制参
- [经营与资产]保持独立性和稳定性对于软件开发的重要意义
comsci
软件开发
一个软件的架构从诞生到成熟,中间要经过很多次的修正和改造
如果在这个过程中,外界的其它行业的资本不断的介入这种软件架构的升级过程中
那么软件开发者原有的设计思想和开发路线
- 在CentOS5.5上编译OpenJDK6
Cwind
linuxOpenJDK
几番周折终于在自己的CentOS5.5上编译成功了OpenJDK6,将编译过程和遇到的问题作一简要记录,备查。
0. OpenJDK介绍
OpenJDK是Sun(现Oracle)公司发布的基于GPL许可的Java平台的实现。其优点:
1、它的核心代码与同时期Sun(-> Oracle)的产品版基本上是一样的,血统纯正,不用担心性能问题,也基本上没什么兼容性问题;(代码上最主要的差异是
- java乱码问题
dashuaifu
java乱码问题js中文乱码
swfupload上传文件参数值为中文传递到后台接收中文乱码 在js中用setPostParams({"tag" : encodeURI( document.getElementByIdx_x("filetag").value,"utf-8")});
然后在servlet中String t
- cygwin很多命令显示command not found的解决办法
dcj3sjt126com
cygwin
cygwin很多命令显示command not found的解决办法
修改cygwin.BAT文件如下
@echo off
D:
set CYGWIN=tty notitle glob
set PATH=%PATH%;d:\cygwin\bin;d:\cygwin\sbin;d:\cygwin\usr\bin;d:\cygwin\usr\sbin;d:\cygwin\us
- [介绍]从 Yii 1.1 升级
dcj3sjt126com
PHPyii2
2.0 版框架是完全重写的,在 1.1 和 2.0 两个版本之间存在相当多差异。因此从 1.1 版升级并不像小版本间的跨越那么简单,通过本指南你将会了解两个版本间主要的不同之处。
如果你之前没有用过 Yii 1.1,可以跳过本章,直接从"入门篇"开始读起。
请注意,Yii 2.0 引入了很多本章并没有涉及到的新功能。强烈建议你通读整部权威指南来了解所有新特性。这样有可能会发
- Linux SSH免登录配置总结
eksliang
ssh-keygenLinux SSH免登录认证Linux SSH互信
转载请出自出处:http://eksliang.iteye.com/blog/2187265 一、原理
我们使用ssh-keygen在ServerA上生成私钥跟公钥,将生成的公钥拷贝到远程机器ServerB上后,就可以使用ssh命令无需密码登录到另外一台机器ServerB上。
生成公钥与私钥有两种加密方式,第一种是
- 手势滑动销毁Activity
gundumw100
android
老是效仿ios,做android的真悲催!
有需求:需要手势滑动销毁一个Activity
怎么办尼?自己写?
不用~,网上先问一下百度。
结果:
http://blog.csdn.net/xiaanming/article/details/20934541
首先将你需要的Activity继承SwipeBackActivity,它会在你的布局根目录新增一层SwipeBackLay
- JavaScript变换表格边框颜色
ini
JavaScripthtmlWebhtml5css
效果查看:http://hovertree.com/texiao/js/2.htm代码如下,保存到HTML文件也可以查看效果:
<html>
<head>
<meta charset="utf-8">
<title>表格边框变换颜色代码-何问起</title>
</head>
<body&
- Kafka Rest : Confluent
kane_xie
kafkaRESTconfluent
最近拿到一个kafka rest的需求,但kafka暂时还没有提供rest api(应该是有在开发中,毕竟rest这么火),上网搜了一下,找到一个Confluent Platform,本文简单介绍一下安装。
这里插一句,给大家推荐一个九尾搜索,原名叫谷粉SOSO,不想fanqiang谷歌的可以用这个。以前在外企用谷歌用习惯了,出来之后用度娘搜技术问题,那匹配度简直感人。
环境声明:Ubu
- Calender不是单例
men4661273
单例Calender
在我们使用Calender的时候,使用过Calendar.getInstance()来获取一个日期类的对象,这种方式跟单例的获取方式一样,那么它到底是不是单例呢,如果是单例的话,一个对象修改内容之后,另外一个线程中的数据不久乱套了吗?从试验以及源码中可以得出,Calendar不是单例。
测试:
Calendar c1 =
- 线程内存和主内存之间联系
qifeifei
java thread
1, java多线程共享主内存中变量的时候,一共会经过几个阶段,
lock:将主内存中的变量锁定,为一个线程所独占。
unclock:将lock加的锁定解除,此时其它的线程可以有机会访问此变量。
read:将主内存中的变量值读到工作内存当中。
load:将read读取的值保存到工作内存中的变量副本中。
- schedule和scheduleAtFixedRate
tangqi609567707
javatimerschedule
原文地址:http://blog.csdn.net/weidan1121/article/details/527307
import java.util.Timer;import java.util.TimerTask;import java.util.Date;
/** * @author vincent */public class TimerTest {
 
- erlang 部署
wudixiaotie
erlang
1.如果在启动节点的时候报这个错 :
{"init terminating in do_boot",{'cannot load',elf_format,get_files}}
则需要在reltool.config中加入
{app, hipe, [{incl_cond, exclude}]},
2.当generate时,遇到:
ERROR