- 大模型是如何蒸馏像Qwen-7B,Llama-3 这种小模型的?
闫哥大数据
大模型llama人工智能
1.Qwen-7B和Llama-3的所属公司Qwen-7B:属于阿里巴巴,是“通义千问”系列的开源模型,由阿里云团队研发。Llama-3:属于Meta(原Facebook),是Meta开源的Llama系列大语言模型的最新版本。2.蒸馏数据的使用与模型归属蒸馏技术的作用:DeepSeek将自研大模型(如DeepSeek-R1)生成的80万条高质量解题数据(称为“蒸馏数据”)用于训练Qwen、Llam
- 深入探索 llama-cpp-python:在 LangChain 中启用本地 LLM 推理
aehrutktrjk
llamapythonlangchain
引言在人工智能的迅猛发展中,大语言模型(LLM)扮演着不可或缺的角色。Llama.cpp是一个用于推理许多LLM模型的开源库,它的Python绑定——llama-cpp-python提供了在Python中更加便捷的接口。这篇文章旨在介绍如何在LangChain中运行llama-cpp-python,并探讨其安装和使用中的一些细节。主要内容1.安装llama-cpp-python首先,我们需要选择合
- llama-cpp-python本地部署并使用gpu版本
i__chen
llamapython开发语言
使用带编译的命令安装llama库#首选GGML_CUDA后续LLAMA_CUBLAS将删除CMAKE_ARGS="-DGGML_CUDA=on"FORCE_CMAKE=1pipinstallllama-cpp-python--no-cache-dirCMAKE_ARGS="-DLLAMA_CUBLAS=on"FORCE_CMAKE=1pipinstallllama-cpp-python--no-c
- 部署 Llama 3.1 405B:分步指南,深入研究 Llama 最新模型 Llama 3.1 4050 亿参数模型的部署。这个强大的模型需要大量的 VRAM,特别是 4 位量化版本需要 231 G
知识大胖
NVIDIAGPU和大语言模型开发教程llamaai
简介今天,我们将深入研究Llama最新模型Llama3.14050亿参数模型的部署。这个强大的模型需要大量的VRAM,特别是4位量化版本需要231GB。但是,经过一些优化,我们可以使用8x4090GPU在192GB上运行它。最好的部分?我们只需要运行三个终端命令即可完成所有设置。推荐文章《使用DSPy、Qdrant和Llama3对复杂问题进行多跳检索和推理,利用DSPy的无提示框架进行复杂的LLM
- DeepSeek-R1秘籍轻松迁移,只需原始数据0.3% | 邱锡鹏团队联合出品
量子位
DeepSeek-R1背后关键——多头潜在注意力机制(MLA),现在也能轻松移植到其他模型了!而且只需原始数据的0.3%~0.6%。这项研究由复旦大学、华东师范大学、上海AILab等联合提出,复旦教授邱锡鹏(Moss大模型项目负责人)也在作者名单之列。他们提出了MHA2MLA这种数据高效的微调方法,使基于MHA(多头注意力)的大语言模型(LLMs)能够顺利转换到MLA架构。以Llama2-7B为例
- Meta官宣Llama3:迄今为止最强大的开源大模型
人工智能开源
4月18日,Meta在官方博客官宣了Llama3,标志着人工智能领域迈向了一个重要的飞跃。此版本具有经过预训练和指令微调的语言模型,具有8B(80亿)和70B(700亿)参数,可以支持广泛的用例。Llama3在各种行业基准上展示了最先进的性能,并提供了新功能,包括改进的推理能力。领先的性能新的8B和70B参数Llama3模型是Llama2模型的重大飞跃,为这些规模的LLM模型确立了新的先进水平。得
- 垂类大模型微调(二):使用LLaMA-Factory
CITY_OF_MO_GY
从零到亿大模型微调llama
上一篇博文和大家一起安装了LLaMA-Factory工具,并下载了大模型在上面进行了简单的加载和推理,今天尝试通过LoRa技术对大模型进行微调;一、训练集准备1.1介绍训练集结构这里演示对Qwen2.5-0.5B-Instruct-GPTQ-Int4模型进行LoRA微调,大家可以根据垂类大模型微调(一)从魔塔中下载对应模型;目前该工具支持指令监督微调(Alpaca格式)和多轮对话微调(
- LLaMA-Factory|微调大语言模型初探索(3),qlora微调deepseek记录
闻道且行之
自然语言处理语言模型人工智能qlora微调llamadeepseek
前言 上篇文章记录了使用lora微调llama-1b,微调成功,但是微调llama-8b显存爆炸,这次尝试使用qlora来尝试微调参数体量更大的大语言模型,看看64G显存的极限在哪里。1.WhyQLora?QLoRA在模型加载阶段通过4-bit量化大幅减少了模型权重的显存占用。QLoRA通过反量化到BF16进行训练,在保持计算精度的同时,进一步节省显存和提高效率。QLoRA在加载、训练、以及权重
- 将 Llama 3 与 Ollama 和 Python 结合使用 使用 Ollama API 访问这一领先模型
知识大胖
NVIDIAGPU和大语言模型开发教程Python源码大全llamapython开发语言
Meta最近发布的新法学硕士Llama3在人工智能领域引起了轰动。例如,请查看我对下面型号的70B版本的评论和测试。在我的测试中,Llama3令人印象深刻,但它们是使用聊天界面进行的。如果您想对此模型进行编程以执行有用的任务或使用Python创建您自己的模型聊天界面,该怎么办?本文将向您准确展示如何使用Ollama来做到这一点。如果您不知道Ollama是什么,这是一个允许您在本地下载Llama3等
- 科普:大模型使用中的temperature 与 top-k及其它
人工干智能
大模型编程人工智能大模型
在大语言模型(如通过Ollama运行的llama2模型)中,temperature和top-k是两个用于控制文本生成过程的重要参数,它们在功能上相互独立,但又共同影响着模型生成文本的随机性和多样性。一、各自的作用temperature:该参数主要用于控制生成文本的随机性。它会对模型预测的词概率分布进行调整。具体来说,temperature值越高,概率分布就越平滑,各个词被选中的概率就越接近,生成文
- 【2024 Dec 超实时】编辑安装llama.cpp并运行llama
AI.愚人自愈
llmllmllama.cpp
首先讲一下环境这是2024年12月,llama.cpp的编译需要cmake呜呜呜网上教程都是make跑的。反正我现在装的时候make已经不再适用了,因为工具的版本,捣鼓了很久。ubuntu18+condaenv内置安装。以下是可以完美编译llama.cpp的测试工具版本号:gcc9g++9#只要大于等于9版本都集成了cmake是要的c++17指令集,gcc8测试了要手动软链麻烦反正凉cuda11.
- 大模型微调
猴的哥儿
机器学习深度学习神经网络知识图谱个人开发
以下是在本地部署使用LLaMA-Factory导出的LoRA模型,并通过Ollama运行的步骤指南:1.准备工作已训练好的LoRA模型:确保通过LLaMA-Factory导出了LoRA适配器文件(通常是adapter_model.bin和adapter_config.json)。基础模型:准备LoRA适配器对应的基座模型(如LLaMA-2、Mistral等),需转换为Ollama支持的格式(如GG
- 【Llama3:8b】手把手教你如何在本地部署 自己的 LLM大模型
AI大模型..
langchainllama人工智能大模型LLMai大模型大模型部署
一、为什么需要本地部署属于自己的大模型?趋势:我们正处于AI人工智能时代,各行各业的公司和产品都在向AI靠拢。打造垂直领域的AI模型将成为每个公司未来的发展趋势。数据安全:在无法掌握核心算法的情况下,许多公司选择使用大公司的成熟方案。然而,这涉及到数据安全的问题。训练垂直定制化的大模型需要大量数据,而数据是公司的核心资产和基石。没有公司愿意将这些关键数据上传到外部服务器,这是公司的命脉所在。本地部
- 基于ChatGPT-4o信息检索、总结分析、论文写作与投稿、专利idea构思与交底书的撰写
AAIshangyanxiu
chatgptpython机器学习深度学习
第一章2024大语言模型最新进展与ChatGPT各模型讲解1、2024AIGC技术最新进展介绍(生成式人工智能的基本概念与原理、最新前沿技术和发展趋势简介)2、国内外大语言模型(ChatGPT4O、Gemini、Claude、Llama3、PerplexityAI、文心一言、星火、通义千问、Kimi、智谱清言、秘塔AI等)对比分析3、OpenAI12天12场直播新功能解读与演示(ChatGPTO1
- 哪种LLM量化方法最适合您?:GGUF、GPTQ 还是 AWQ
GordonJK
人工智能机器学习深度学习
哪种LLM量化方法最适合您?:GGUF、GPTQ还是AWQ1.GGUF:(GPT-GeneratedUnifiedFormat,GPT生成的统一格式)GGUF是GGML的后继者,由llama.cpp团队推出。它是一种专为大型语言模型设计的量化方法。它允许用户在CPU上运行LLM,同时通过提供速度改进将一些层卸载到GPU。GGUF对于那些在CPU或Apple设备上运行模型的用户特别有用。在GGUF上
- LLM Course系列:使用 Unsloth 高效地微调 Llama 3.1
橙狮科技
LLM工程llama人工智能python
最近发布的Llama3.1为模型提供了令人难以置信的性能水平,缩小了闭源模型和开放权重模型之间的差距。你无需使用GPT-4o和Claude3.5等冻结的通用LLM,而是可以根据特定用例对Llama3.1进行微调,以更低的成本实现更好的性能和可定制性。在本文中,我们将全面概述监督微调。我们将将其与即时工程进行比较,以了解何时使用它有意义,详细介绍主要技术及其优缺点,并介绍主要概念,例如LoRA超参数
- 尝试在exo集群下使用deepseek模型:第一步,调通llama
skywalk8163
人工智能软硬件调试人工智能exollama
exo是一个多机协同AI大模型集群软件,它可以将多种设备统一成一个强大的GPU,支持多种模型,并具有动态模型分区、自动设备发现等功能。问题实践:多机协同AI大模型集群软件exo:体验github日榜第一名的魅力!-CSDN博客在安装了exo后,一直运行没有成功,在网页运行的时候,报错让使用debug>2去调试原来可以命令行调试运行:DEBUG=9exorunllama-3.2-1b--disab
- NVIDIA B200:高性能 AI 计算的未来
知识大胖
NVIDIAGPU和大语言模型开发教程人工智能nvidiab200
简介对于一直关注人工智能和机器学习快速发展的人来说,新硬件的发布总是备受期待。每一代新处理器和加速器都有可能极大地改变我们开发和部署大规模机器学习模型的方式。NVIDIA长期处于人工智能硬件开发的最前沿,它再次凭借由Blackwell架构驱动的B200提高了标准。最近的MLPerf基准测试提供了B200的首批可靠数据,结果非常出色。在Llama270B型号上运行推理时,B200每秒可处理11,26
- Llama都在用的RoPE有了视频版,长视频理解/检索绝佳拍档
量子位
VideoRoPE团队投稿量子位|公众号QbitAILlama都在用的RoPE(旋转位置嵌入)被扩展到视频领域,长视频理解和检索更强了。复旦大学、上海AI实验室等提出VideoRoPE,并确定了将RoPE有效应用于视频所需的四个关键特性。在长视频检索、视频理解和视频幻觉等各种下游任务中,VideoRoPE始终优于先前的RoPE变体。用三维结构保留时空关系RoPE是一种能够将相对位置信息依赖集成到s
- Swift:KeyPath
陌上心
Swiftswift
Swift中可以使用KeyPath来获取属性值,语法为\Type.property.property.....。官方给出的示例:classAnimal:NSObject{@objcvarname:Stringinit(name:String){self.name=name}}letllama=Animal(name:"Llama")letnameAccessor=\Animal.nameletna
- 如何将模型长度扩展到100万:Llama 3的NTK-aware插值技术解析 小学生都懂的
从零开始学习人工智能
llama
好的,以下是对Llama3如何通过NTK-aware插值调整位置编码以扩展上下文长度到100万的详细原理解释:1.RoPE(旋转位置编码)的原理RoPE是一种用于Transformer模型的位置编码方法,它通过旋转向量来注入位置信息。具体来说,RoPE将每个位置的嵌入向量拆分为实部和虚部,并根据位置和频率进行旋转。其核心公式如下:假设嵌入维度为dim,位置为pos,频率由theta决定,那么旋转角
- ChatGPT和DeepSeek打造科研与办公的高效引擎
AAIshangyanxiu
编程算法统计语言农林生态遥感chatgpt
一、2024大语言模型最新进展与ChatGPT各模型讲解1、2024AIGC技术最新进展介绍(生成式人工智能的基本概念与原理、最新前沿技术和发展趋势简介)2、国内外大语言模型(ChatGPT4O、Gemini、Claude、Llama3、PerplexityAI、文心一言、星火、通义千问、Kimi、智谱清言、秘塔AI等)对比分析3、OpenAI12天12场直播新功能解读与演示(ChatGPTO1模
- 零基础学会asp.net做AI大模型网站/小程序十六:专栏总结
借雨醉东风
asp.net小程序后端
本专栏以实战为主,轻理论。如果哪里有不太懂的,可关注博主后加个人微信(平台规定文章中不能贴联系方式,需先关注博主,再加微信),后续一起交流学习。-------------------------------------正文----------------------------------------目录本专栏总结后续方向项目简介项目结构使用方法项目地址关键特点LLaMA机器学习简介使用LLaMA
- 华为昇腾服务器部署DeepSeek模型实战
gzroy
人工智能语言模型
在华为的昇腾服务器上部署了DeepSeekR1的模型进行验证测试,记录一下相关的过程。服务器是配置了8块910B3的显卡,每块显卡有64GB显存,根据DeepSeekR1各个模型的参数计算,如果部署R1的Qwen14B版本,需要1张显卡,如果是32B版本,需要2张,Llama70B的模型需要4张显卡。如果是R1全参数版本,则需要32张显卡,也就是4台满配的昇腾服务器。这里先选择32B的模型进行部署
- Docker Compose部署大语言模型LLaMa3+可视化UI界面Open WebUI
m0_74824877
docker语言模型ui
一、介绍Ollama:部署+运行大语言模型的软件LLaMa3:史上最强开源AI大模型—Meta公司新发布的大语言模型OpenWebUI:AI用户界面,可通过浏览器访问二、Docker部署docker-compose.yml文件如下:version:'3'services:ollama:container_name:bruce-ollamaimage:ollama/ollamavolumes:-./
- 大模型(含deepseek r1)本地部署利器ollama的API操作指南
人工智能llm
ollama介绍:Ollama是一个开源的大型语言模型(LLM)平台,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。它支持多种预训练的大型语言模型(如LLaMA2、Mistral、Gemma、DeepSeek等),并提供了一个简单高效的方式来加载和使用这些模型。出现Error:somethingwentwrong,pleaseseetheollamaserverlogsfordet
- DeepSeek和ChatGPT的全面对比
陈皮话梅糖@
AI编程
一、模型基础架构对比(2023技术版本)维度DeepSeekChatGPT模型家族LLAMA架构改进GPT-4优化版本参数量级开放7B/35B/120B闭源175B+位置编码RoPE+NTK扩展ALiBiAttention机制FlashAttention-3FlashAttention-2激活函数SwiGLUProGeGLU训练框架DeepSpeed+Megatron定制内部框架上下文窗口32k(
- KTransformers如何通过内核级优化、多GPU并行策略和稀疏注意力等技术显著加速大语言模型的推理速度?
魔王阿卡纳兹
大模型知识札记语言模型人工智能自然语言处理
KTransformers通过内核级优化、多GPU并行策略和稀疏注意力等技术显著加速大语言模型的推理速度,具体体现在以下几个方面:内核级优化:KTransformers采用了高效的内核级优化技术,包括对Transformer模型中的关键操作进行优化。例如,通过使用Llama和Marlin等高效内核,显著提升了计算效率。通过IntelAMX指令集优化,KTransformers在CPU端实现了更高的
- Meta放大招!首届生成式AI大会LlamaCon即将来袭
人工智能大模型metaai开发
Meta宣布将于4月29日举办其首届生成式AI的开发者大会——LlamaCon。这一大会以Meta的生成式AI模型家族Llama命名,旨在分享Meta在开源AI领域的最新进展,帮助开发者构建出色的应用和产品。Meta表示,更多细节将在不久后公布。而Meta的年度开发者大会MetaConnect则仍将按惯例在9月举行。Meta的开源AI战略:从Llama到生态系统的构建几年前,Meta开始拥抱“开源
- LLaMA系列大模型调研与整理-llama-alpaca-lora
AI大模型-大飞
llamaAI大模型AI职场和发展人工智能
文章目录LLaMA大模型及其衍生模型1.LLaMA2.stanford_alpaca3.ChatDoctor4.alpaca-lora5.Chinese-LLaMA-Alpaca6.BELLE大模型综述ASurveyofLargeLanguageModels关键词:大模型,LLaMA,Alpaca,Lora,Belle,模型训练,模型微调,指令微调最近尝试在领域数据进行生成式大模型的再训练和微调,
- 数据采集高并发的架构应用
3golden
.net
问题的出发点:
最近公司为了发展需要,要扩大对用户的信息采集,每个用户的采集量估计约2W。如果用户量增加的话,将会大量照成采集量成3W倍的增长,但是又要满足日常业务需要,特别是指令要及时得到响应的频率次数远大于预期。
&n
- 不停止 MySQL 服务增加从库的两种方式
brotherlamp
linuxlinux视频linux资料linux教程linux自学
现在生产环境MySQL数据库是一主一从,由于业务量访问不断增大,故再增加一台从库。前提是不能影响线上业务使用,也就是说不能重启MySQL服务,为了避免出现其他情况,选择在网站访问量低峰期时间段操作。
一般在线增加从库有两种方式,一种是通过mysqldump备份主库,恢复到从库,mysqldump是逻辑备份,数据量大时,备份速度会很慢,锁表的时间也会很长。另一种是通过xtrabacku
- Quartz——SimpleTrigger触发器
eksliang
SimpleTriggerTriggerUtilsquartz
转载请出自出处:http://eksliang.iteye.com/blog/2208166 一.概述
SimpleTrigger触发器,当且仅需触发一次或者以固定时间间隔周期触发执行;
二.SimpleTrigger的构造函数
SimpleTrigger(String name, String group):通过该构造函数指定Trigger所属组和名称;
Simpl
- Informatica应用(1)
18289753290
sqlworkflowlookup组件Informatica
1.如果要在workflow中调用shell脚本有一个command组件,在里面设置shell的路径;调度wf可以右键出现schedule,现在用的是HP的tidal调度wf的执行。
2.designer里面的router类似于SSIS中的broadcast(多播组件);Reset_Workflow_Var:参数重置 (比如说我这个参数初始是1在workflow跑得过程中变成了3我要在结束时还要
- python 获取图片验证码中文字
酷的飞上天空
python
根据现成的开源项目 http://code.google.com/p/pytesser/改写
在window上用easy_install安装不上 看了下源码发现代码很少 于是就想自己改写一下
添加支持网络图片的直接解析
#coding:utf-8
#import sys
#reload(sys)
#sys.s
- AJAX
永夜-极光
Ajax
1.AJAX功能:动态更新页面,减少流量消耗,减轻服务器负担
2.代码结构:
<html>
<head>
<script type="text/javascript">
function loadXMLDoc()
{
.... AJAX script goes here ...
- 创业OR读研
随便小屋
创业
现在研一,有种想创业的想法,不知道该不该去实施。因为对于的我情况这两者是矛盾的,可能就是鱼与熊掌不能兼得。
研一的生活刚刚过去两个月,我们学校主要的是
- 需求做得好与坏直接关系着程序员生活质量
aijuans
IT 生活
这个故事还得从去年换工作的事情说起,由于自己不太喜欢第一家公司的环境我选择了换一份工作。去年九月份我入职现在的这家公司,专门从事金融业内软件的开发。十一月份我们整个项目组前往北京做现场开发,从此苦逼的日子开始了。
系统背景:五月份就有同事前往甲方了解需求一直到6月份,后续几个月也完
- 如何定义和区分高级软件开发工程师
aoyouzi
在软件开发领域,高级开发工程师通常是指那些编写代码超过 3 年的人。这些人可能会被放到领导的位置,但经常会产生非常糟糕的结果。Matt Briggs 是一名高级开发工程师兼 Scrum 管理员。他认为,单纯使用年限来划分开发人员存在问题,两个同样具有 10 年开发经验的开发人员可能大不相同。近日,他发表了一篇博文,根据开发者所能发挥的作用划分软件开发工程师的成长阶段。
初
- Servlet的请求与响应
百合不是茶
servletget提交java处理post提交
Servlet是tomcat中的一个重要组成,也是负责客户端和服务端的中介
1,Http的请求方式(get ,post);
客户端的请求一般都会都是Servlet来接受的,在接收之前怎么来确定是那种方式提交的,以及如何反馈,Servlet中有相应的方法, http的get方式 servlet就是都doGet(
- web.xml配置详解之listener
bijian1013
javaweb.xmllistener
一.定义
<listener>
<listen-class>com.myapp.MyListener</listen-class>
</listener>
二.作用 该元素用来注册一个监听器类。可以收到事件什么时候发生以及用什么作为响
- Web页面性能优化(yahoo技术)
Bill_chen
JavaScriptAjaxWebcssYahoo
1.尽可能的减少HTTP请求数 content
2.使用CDN server
3.添加Expires头(或者 Cache-control) server
4.Gzip 组件 server
5.把CSS样式放在页面的上方。 css
6.将脚本放在底部(包括内联的) javascript
7.避免在CSS中使用Expressions css
8.将javascript和css独立成外部文
- 【MongoDB学习笔记八】MongoDB游标、分页查询、查询结果排序
bit1129
mongodb
游标
游标,简单的说就是一个查询结果的指针。游标作为数据库的一个对象,使用它是包括
声明
打开
循环抓去一定数目的文档直到结果集中的所有文档已经抓取完
关闭游标
游标的基本用法,类似于JDBC的ResultSet(hasNext判断是否抓去完,next移动游标到下一条文档),在获取一个文档集时,可以提供一个类似JDBC的FetchSize
- ORA-12514 TNS 监听程序当前无法识别连接描述符中请求服务 的解决方法
白糖_
ORA-12514
今天通过Oracle SQL*Plus连接远端服务器的时候提示“监听程序当前无法识别连接描述符中请求服务”,遂在网上找到了解决方案:
①打开Oracle服务器安装目录\NETWORK\ADMIN\listener.ora文件,你会看到如下信息:
# listener.ora Network Configuration File: D:\database\Oracle\net
- Eclipse 问题 A resource exists with a different case
bozch
eclipse
在使用Eclipse进行开发的时候,出现了如下的问题:
Description Resource Path Location TypeThe project was not built due to "A resource exists with a different case: '/SeenTaoImp_zhV2/bin/seentao'.&
- 编程之美-小飞的电梯调度算法
bylijinnan
编程之美
public class AptElevator {
/**
* 编程之美 小飞 电梯调度算法
* 在繁忙的时间,每次电梯从一层往上走时,我们只允许电梯停在其中的某一层。
* 所有乘客都从一楼上电梯,到达某层楼后,电梯听下来,所有乘客再从这里爬楼梯到自己的目的层。
* 在一楼时,每个乘客选择自己的目的层,电梯则自动计算出应停的楼层。
* 问:电梯停在哪
- SQL注入相关概念
chenbowen00
sqlWeb安全
SQL Injection:就是通过把SQL命令插入到Web表单递交或输入域名或页面请求的查询字符串,最终达到欺骗服务器执行恶意的SQL命令。
具体来说,它是利用现有应用程序,将(恶意)的SQL命令注入到后台数据库引擎执行的能力,它可以通过在Web表单中输入(恶意)SQL语句得到一个存在安全漏洞的网站上的数据库,而不是按照设计者意图去执行SQL语句。
首先让我们了解什么时候可能发生SQ
- [光与电]光子信号战防御原理
comsci
原理
无论是在战场上,还是在后方,敌人都有可能用光子信号对人体进行控制和攻击,那么采取什么样的防御方法,最简单,最有效呢?
我们这里有几个山寨的办法,可能有些作用,大家如果有兴趣可以去实验一下
根据光
- oracle 11g新特性:Pending Statistics
daizj
oracledbms_stats
oracle 11g新特性:Pending Statistics 转
从11g开始,表与索引的统计信息收集完毕后,可以选择收集的统信息立即发布,也可以选择使新收集的统计信息处于pending状态,待确定处于pending状态的统计信息是安全的,再使处于pending状态的统计信息发布,这样就会避免一些因为收集统计信息立即发布而导致SQL执行计划走错的灾难。
在 11g 之前的版本中,D
- 快速理解RequireJs
dengkane
jqueryrequirejs
RequireJs已经流行很久了,我们在项目中也打算使用它。它提供了以下功能:
声明不同js文件之间的依赖
可以按需、并行、延时载入js库
可以让我们的代码以模块化的方式组织
初看起来并不复杂。 在html中引入requirejs
在HTML中,添加这样的 <script> 标签:
<script src="/path/to
- C语言学习四流程控制if条件选择、for循环和强制类型转换
dcj3sjt126com
c
# include <stdio.h>
int main(void)
{
int i, j;
scanf("%d %d", &i, &j);
if (i > j)
printf("i大于j\n");
else
printf("i小于j\n");
retu
- dictionary的使用要注意
dcj3sjt126com
IO
NSDictionary *dict = [NSDictionary dictionaryWithObjectsAndKeys:
user.user_id , @"id",
user.username , @"username",
- Android 中的资源访问(Resource)
finally_m
xmlandroidStringdrawablecolor
简单的说,Android中的资源是指非代码部分。例如,在我们的Android程序中要使用一些图片来设置界面,要使用一些音频文件来设置铃声,要使用一些动画来显示特效,要使用一些字符串来显示提示信息。那么,这些图片、音频、动画和字符串等叫做Android中的资源文件。
在Eclipse创建的工程中,我们可以看到res和assets两个文件夹,是用来保存资源文件的,在assets中保存的一般是原生
- Spring使用Cache、整合Ehcache
234390216
springcacheehcache@Cacheable
Spring使用Cache
从3.1开始,Spring引入了对Cache的支持。其使用方法和原理都类似于Spring对事务管理的支持。Spring Cache是作用在方法上的,其核心思想是这样的:当我们在调用一个缓存方法时会把该方法参数和返回结果作为一个键值对存放在缓存中,等到下次利用同样的
- 当druid遇上oracle blob(clob)
jackyrong
oracle
http://blog.csdn.net/renfufei/article/details/44887371
众所周知,Oracle有很多坑, 所以才有了去IOE。
在使用Druid做数据库连接池后,其实偶尔也会碰到小坑,这就是使用开源项目所必须去填平的。【如果使用不开源的产品,那就不是坑,而是陷阱了,你都不知道怎么去填坑】
用Druid连接池,通过JDBC往Oracle数据库的
- easyui datagrid pagination获得分页页码、总页数等信息
ldzyz007
var grid = $('#datagrid');
var options = grid.datagrid('getPager').data("pagination").options;
var curr = options.pageNumber;
var total = options.total;
var max =
- 浅析awk里的数组
nigelzeng
二维数组array数组awk
awk绝对是文本处理中的神器,它本身也是一门编程语言,还有许多功能本人没有使用到。这篇文章就单单针对awk里的数组来进行讨论,如何利用数组来帮助完成文本分析。
有这么一组数据:
abcd,91#31#2012-12-31 11:24:00
case_a,136#19#2012-12-31 11:24:00
case_a,136#23#2012-12-31 1
- 搭建 CentOS 6 服务器(6) - TigerVNC
rensanning
centos
安装GNOME桌面环境
# yum groupinstall "X Window System" "Desktop"
安装TigerVNC
# yum -y install tigervnc-server tigervnc
启动VNC服务
# /etc/init.d/vncserver restart
# vncser
- Spring 数据库连接整理
tomcat_oracle
springbeanjdbc
1、数据库连接jdbc.properties配置详解 jdbc.url=jdbc:hsqldb:hsql://localhost/xdb jdbc.username=sa jdbc.password= jdbc.driver=不同的数据库厂商驱动,此处不一一列举 接下来,详细配置代码如下:
Spring连接池  
- Dom4J解析使用xpath java.lang.NoClassDefFoundError: org/jaxen/JaxenException异常
xp9802
用Dom4J解析xml,以前没注意,今天使用dom4j包解析xml时在xpath使用处报错
异常栈:java.lang.NoClassDefFoundError: org/jaxen/JaxenException异常
导入包 jaxen-1.1-beta-6.jar 解决;
&nb