- Llama-Omni会说话的人工智能“语音到语音LLM” 利用低延迟、高质量语音转语音 AI 彻底改变对话方式(教程含源码)
知识大胖
NVIDIAGPU和大语言模型开发教程llama人工智能nvidiallm
介绍“单靠技术是不够的——技术与文科、人文学科的结合,才能产生让我们心花怒放的成果。”——史蒂夫·乔布斯近年来,人机交互领域发生了重大变化,尤其是随着ChatGPT、GPT-4等大型语言模型(LLM)的出现。虽然这些模型主要基于文本,但人们对语音交互的兴趣日益浓厚,以使人机对话更加无缝和自然。然而,实现语音交互而不受语音转文本处理中常见的延迟和错误的影响仍然是一个挑战。关键字:Llama-Omni
- 【实战AI】macbook M1 本地ollama运行deepseek
东方鲤鱼
chatAImacosaillamaAIGCchatgpt
由于deepseek官网或者Aapi调用会有网络延迟或不响应的情况,故在本地搭建部署;前提条件1.由于需要拉取开源镜像,受网络限制,部分资源在前提中会下载的更快!请自行;2.设备macbookM132G下载ollamaOllama是一款跨平台推理框架客户端(MacOS、Windows、Linux),专为无缝部署大型语言模型(LLM)(如Llama2、Mistral、Llava等)而设计。通过一键式
- 在mac m1基于llama.cpp运行deepseek
lama.cpp是一个高效的机器学习推理库,目标是在各种硬件上实现LLM推断,保持最小设置和最先进性能。llama.cpp支持1.5位、2位、3位、4位、5位、6位和8位整数量化,通过ARMNEON、Accelerate和Metal支持Apple芯片,使得在MACM1处理器上运行Deepseek大模型成为可能。1下载llama.cppgitclonehttps://github.com/ggerg
- LLaMA 学习笔记
AI算法网奇
深度学习基础人工智能深度学习
目录LLaMA模型结构:模型微调手册:推理示例:指定位置加载模型测试ok:模型下载:llama-stack下载modelscope下载LLaMA优化技术RMSNormSwiGLU激活函数旋转位置编码(RoPE)LLaMA模型结构:llama3结构详解-CSDN博客模型微调手册:大模型微调LLaMA详细指南(准备环境、数据、配置微调参数+微调过程)_llama微调-CSDN博客显存占用:FP16/B
- LLaMA-Omni 深度解析:打开通往无缝人机语音交互的大门
kakaZhui
前沿多模态大模型:论文与实战llama交互LLMTTS语音识别语音合成人工智能
一、引言:语音交互大模型今天我们来看语音交互大模型LLaMA-Omni,它由中国科学院计算技术研究所的研究者们推出,是一个基于强大的Llama-3.1-8B-Instruct构建的语音语言模型。LLaMA-Omni不仅实现了低至226ms的惊人交互延迟,还能同时生成高质量的文本与语音回复,真正意义上让大语言模型(LLM)具备了“听说”的能力。这篇博客将带你由浅入深,全方位地探索LLaMA-Omni
- llama-factory微调Qwen2.5-7B-instruct实战,看这一篇就够了!!!(含windows和linux)
亚伯拉罕·黄肯
大模型llama人工智能大模型llamafactory微调Qwen
一.安装llama-factoryllama-factort的网站:https://github.com/hiyouga/LLaMA-Factory安装llama-factory很简单,打开github后滑到安装LLaMAFactory跟着步骤走即可。安装LLaMAFactorygitclone--depth1https://github.com/hiyouga/LLaMA-Factory.git
- 在LLM快速迭代时代构建持久AI应用:架构设计与实施策略
引言:技术浪潮下的开发困境大型语言模型(LLM)的发展速度令人瞠目:从GPT-3到GPT-4,从Claude1到Claude3,从Llama1到Llama3,迭代周期正在从"年"缩短到"月"。作为一名AI应用开发者,我亲身经历了这种技术浪潮带来的挑战:昨天精心调优的prompt今天可能失效;上个季度集成的模型这个季度已有更优选择;刚完成的功能设计瞬间被新模型的能力超越。在如此快速变化的环境中,如何
- 零代码玩转大模型!LLaMA Factory:你的专属模型精修师
jane_xing
人工智能llama
你是否曾对大语言模型(LLM)的强大能力心驰神往,却苦于以下难题?想定制专属模型?微调代码看不懂,环境配置太复杂…硬件资源有限?动辄需要数张A100,普通设备望而却步…中文任务不给力?原生模型中文理解弱,效果难达预期…部署门槛高?模型优化、压缩、服务化步步是坎?好消息是:LLaMAFactory来拯救你啦!它就像一家功能齐全的“模型精修店”,让你无需深厚AI功底,也能轻松定制、优化和部署大模型!一
- 大模型 Agent(智能体)技术简介
北京地铁1号线
自然语言处理与大语言模型大模型语言模型Agent
大模型Agent(智能体)技术是当前人工智能领域的前沿方向,它赋予大型语言模型(LLM)自主感知、规划、决策和行动的能力,使其不再局限于“被动应答”,而是能主动完成复杂任务。简单来说,Agent是一个以LLM为“大脑”的自主智能系统,能够理解目标、使用工具、与环境交互并最终解决问题。一、为什么需要Agent?——大模型的局限与Agent的使命传统的大语言模型(如GPT-4、Claude、Llama
- MiniMind:3小时训练26MB微型语言模型,开源项目助力AI初学者快速入门
nine是个工程师
关注人工智能语言模型开源
开发|界面|引擎|交付|副驾——重写全栈法则:AI原生的倍速造应用流来自全栈程序员nine的探索与实践,持续迭代中。欢迎关注评论私信交流~在大型语言模型(LLaMA、GPT等)日益流行的今天,一个名为MiniMind的开源项目正在AI学习圈内引起广泛关注。这个项目让初学者能够在3小时内从零开始训练出一个仅26.88MB大小的微型语言模型,体积仅为GPT-3的七千分之一,却完整覆盖了从数据处理到模型
- 人工智能 开源的大模型训练微调框架LLaMA-Factory
LLaMA-Factory是一个开源的大模型训练微调框架,具有模块化设计和多种高效的训练方法,能够满足不同用户的需求。用户可以通过命令行或Web界面进行操作,实现个性化的语言模型微调。LLaMA-Factory是一个专注于高效微调LLaMA系列模型的开源框架(GitHub项目地址:https://github.com/hiyouga/LLaMA-Factory)。它以极简配置、低资源消耗和对中文任
- TensorRT-LLM:大模型推理加速引擎的架构与实践
前言:技术背景与发展历程:随着GPT-4、LLaMA等千亿级参数模型的出现,传统推理框架面临三大瓶颈:显存占用高(单卡可达80GB)、计算延迟大(生成式推理需迭代处理)、硬件利用率低(Transformer结构存在计算冗余)。根据MLPerf基准测试,原始PyTorch推理的token生成速度仅为12.3tokens/s(A100显卡)。一、TensorRT-LLM介绍:TensorRT-LLM是
- 【LLM】Llama-Index 架构
FOUR_A
LLMllama架构
数据源(DataSources)PDF/文档数据库API网页音频/视频知识库自定义源数据连接器(DataConnectors)用于从各种数据源提取和加载数据,以便进行索引和查询。1.SimpleDirectoryReader含义:简单目录读取器。功能:主要用于读取本地文件系统中的目录内容。它可以列出目录中的文件和子目录,通常用于文件管理或数据预处理阶段。例如,在一个数据处理项目中,你可能需要列出某
- AI初学者如何对大模型进行微调?——零基础保姆级实战指南
仅需8GB显存,三步完成个人专属大模型训练四步实战:从环境配置到模型发布步骤1:云端环境搭建(10分钟)推荐使用阿里魔塔ModelScope免费GPU资源:#注册后执行环境初始化pip3install--upgradepippip3installbitsandbytes>=0.39.0gitclone--depth1https://github.com/hiyouga/LLaMA-Factory.
- 「论文导读」LLM高效推理与模型量化
雷羿 LexChien
prompt人工智能LLM论文阅读
1.论文背景作者:HugoTouvron等人,來自MetaAI来源:arXiv:2302.13971,2023年2月主题:介绍LLaMA系列模型(LLaMA-7B、13B、33B、65B),专为研究用途设计,强调高效能与低资源需求的语言模型推理。论文探讨如何通过优化训练数据、模型架构和推理技术,在有限硬体资源(如单一GPU或CPU)上实现高效推理。学术背景:随着大型语言模型(LLM)如GPT-3的
- 【深度学习新浪潮】什么是上下文长度?
小米玄戒Andrew
深度学习新浪潮深度学习人工智能LLM语言模型大模型模型优化上下文长度
大型语言模型(LLM)的上下文长度是指模型在处理当前输入时能够有效利用的历史文本长度,通常以token(如单词、子词或标点)为单位衡量。例如,GPT-4支持128Ktoken的上下文,而Llama4Scout甚至达到了10Mtoken的惊人规模。这一指标直接影响模型在长文档理解、多轮对话等复杂任务中的表现。一、上下文长度的合理范围上下文长度的选择需结合具体应用场景:日常对话:通常需要8K–32Kt
- 大模型开源与国产化突围:技术路径与产业机遇深度解析
梦玄海
开源架构golang开发语言后端大数据
引言:大模型时代的双轨竞速2023年全球大语言模型(LLM)参数量突破万亿级,GPT-4、LLaMA等模型引领技术浪潮。中国在这场竞赛中面临双重命题:既要融入全球开源生态,又要构建自主可控的技术体系。本文将从技术架构、训练范式、生态建设三个维度,深入剖析大模型开源与国产化的突围路径。一、全球开源格局与中国大模型现状1.1国际开源生态的演进特征技术民主化加速:LLaMA-2(700亿参数)、BLOO
- 大语言模型(LLM)课程学习(Curriculum Learning)、数据课程(data curriculum)指南:从原理到实践
在人工智能的浪潮之巅,我们总会惊叹于GPT-4、Llama3.1、Qwen2.5这些顶尖大语言模型(LLM)所展现出的惊人能力。它们似乎无所不知,能写诗、能编程、能进行复杂的逻辑推理。一个自然而然的问题是:它们是如何“学”会这一切的?大多数人会回答:“用海量数据喂出来的。”这个答案只说对了一半。如果你认为只要把互联网上能找到的所有数据(比如15万亿个token)随机打乱,然后“一锅烩”地喂给模型,
- 量子计算+AI芯片:光子计算如何重构神经网络硬件生态
前言前些天发现了一个巨牛的人工智能免费学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家。点击跳转到网站量子计算+AI芯片:光子计算如何重构神经网络硬件生态——2025年超异构计算架构下的万亿参数模型训练革命产业拐点:英伟达BlackwellUltra发布光互连版GPU,IBM量子处理器突破512比特,光子计算商用成本降至$5/TOPS实测突破:Llama3-405B在光子-量子混合集群训练能耗下
- llama-cpp-python使用教程
try2find
llamapython开发语言
以下是llama-cpp-python的完整使用教程,涵盖安装、基础用法、高级功能(如GPU加速、多模态等)和常见问题解决。1.安装1.1基础安装(CPU版)pipinstallllama-cpp-python-ihttps://pypi.tuna.tsinghua.edu.cn/simple1.2启用GPU加速(CUDA)CMAKE_ARGS="-DGGML_CUDA=ON"pipinstall
- 10.2 ChatGPT自动生成训练数据实战:37.2%准确率提升秘籍
少林码僧
掌握先机!从0起步实战AI大模型微调打造核心竞争力chatgpt人工智能机器学习语言模型
ChatGPT自动生成训练数据实战:37.2%准确率提升秘籍使用ChatGPT自动设计生成训练数据的Prompt在大模型微调场景中,高质量训练数据的获取往往是制约模型效果的核心瓶颈。根据2023年GoogleResearch的实证研究,使用GPT-4生成的合成数据对LLaMA2进行微调,能达到人工标注数据85%的效果水平。本章将揭秘如何通过ChatGPT自动生成适配ChatGLM3的微调数据。一、
- Go 语言实现本地大模型聊天机器人:从推理到 Web UI 的全流程
雷羿 LexChien
Gogolang机器人前端
接续Go-LLM-CPP专案,继续扩充前端聊天室功能一.专案目录架构:go-llm-cpp/├──bin/#第三方依赖│├──go-llama.cpp/#封裝GGUF模型推理(CGo)│└──llm-go/#prompt构建+回合管理(Go)│├──cmd/#可执行应用│└──main.go#CLI/HTTPserver入口点│├──config/│└──persona.yaml#人格模板(系统p
- 【技术派专享】并行智算云:RTX 5090 免费算力深度评测 + 实战指南▎ 为什么开发者需要关注云端算力?
山顶望月川
人工智能云计算
在微调Llama3、训练扩散模型或跑Kaggle比赛时,本地显卡(比如RTX3090/4090)常面临显存不足、训练慢、散热差等问题。而购买多卡服务器成本极高(一台8×A100机器年成本超20万),对个人和小团队极不友好。并行智算云近期推出的“开发者扶持计划”,提供RTX5090免费算力(显存32GB,FP32算力60TFLOPS),实测比4090训练速度快1.8倍,且支持多卡并行。下面从技术优势
- Llama改进之——RoPE旋转位置编码
愤怒的可乐
NLP项目实战#LLaMARoPE旋转位置编码
引言旋转位置编码(RotaryPositionEmbedding,RoPE)将绝对相对位置依赖纳入自注意力机制中,以增强Transformer架构的性能。目前很火的大模型LLaMA、QWen等都应用了旋转位置编码。之前在[论文笔记]ROFORMER中对旋转位置编码的原始论文进行了解析,重点推导了旋转位置编码的公式,本文侧重实现,同时尽量简化数学上的推理,详细推理可见最后的参考文章。复数与极坐标复数
- Llama改进之——分组查询注意力
愤怒的可乐
#NLP项目实战自然语言处理llama深度学习人工智能分组查询注意力旋转位置编码
引言今天介绍LLAMA2模型引入的关于注意力的改进——分组查询注意力(Grouped-queryattention,GQA)1。Transformer中的多头注意力在解码阶段来说是一个性能瓶颈。多查询注意力2通过共享单个key和value头,同时不减少query头来提升性能。多查询注意力可能导致质量下降和训练不稳定,因此常用的是分组查询注意力。然后我们结合上篇文章3探讨的旋转位置编码,将选择位置编
- Llama改进之——均方根层归一化RMSNorm
愤怒的可乐
NLP项目实战#llama
引言在学习完GPT2之后,从本文开始进入Llama模型系列。本文介绍Llama模型的改进之RMSNorm(均方根层归一化)。它是由RootMeanSquareLayerNormalization论文提出来的,可以参阅其论文笔记1。LayerNorm层归一化(LayerNorm)对Transformer等模型来说非常重要,它可以帮助稳定训练并提升模型收敛性。LayerNorm针对一个样本所有特征计算
- Llama改进之——SwiGLU激活函数
愤怒的可乐
#自然语言处理NLP项目实战llama
引言今天介绍LLAMA模型引入的关于激活函数的改进——SwiGLU1,该激活函数取得了不错的效果,得到了广泛地应用。SwiGLU是GLU的一种变体,其中包含了GLU和Swish激活函数。GLUGLU(GatedLinearUnits,门控线性单元)2引入了两个不同的线性层,其中一个首先经过sigmoid函数,其结果将和另一个线性层的输出进行逐元素相乘作为最终的输出:GLU(x,
- 从0实现llama3
讨厌编程但喜欢LLM的学院派
人工智能python开发语言深度学习机器学习pytorch
分享一下从0实现llama的过程流程如下:word-->embeddinglayer-->n*decoderlayer-->finallinearlayer-->output分词器在embedding之前,需要进行分词,将句子分成单词。llama3采用了基于BPE算法的分词器。这个链接实现了一个非常简洁的BPE分词器简易分词器实现BPE分词器(选看)1)训练tokenizer词汇表并合并给定文本,
- 手把手从零打造 Llama3:解锁下一代预训练模型
会飞的Anthony
信息系统人工智能AIGC自然语言处理人工智能llama3AIGC
引言Llama3相较于Llama2,不仅在模型架构上做了显著优化,尤其是全局查询注意力机制(GQA)的引入,使得模型在大规模数据处理上表现更加出色。同时,Llama3采用了与GPT一致的tiktoken分词器,大幅提升了分词效率。本篇文章将带你从头构建Llama3预训练流程,深入了解其关键细节和实现方式,让你掌握这一下一代模型的核心技术。1.启动训练脚本在这一步中,我们将实现Llama3的预训练框
- 从零实现Llama3:深入解析Transformer架构与实现细节
祁婉菲Flora
从零实现Llama3:深入解析Transformer架构与实现细节llama3-from-scratchllama3一次实现一个矩阵乘法。项目地址:https://gitcode.com/gh_mirrors/ll/llama3-from-scratch引言本文将深入探讨如何从零开始实现Llama3语言模型。我们将从最基本的张量操作开始,逐步构建完整的Transformer架构。通过这个过程,读者
- java杨辉三角
3213213333332132
java基础
package com.algorithm;
/**
* @Description 杨辉三角
* @author FuJianyong
* 2015-1-22上午10:10:59
*/
public class YangHui {
public static void main(String[] args) {
//初始化二维数组长度
int[][] y
- 《大话重构》之大布局的辛酸历史
白糖_
重构
《大话重构》中提到“大布局你伤不起”,如果企图重构一个陈旧的大型系统是有非常大的风险,重构不是想象中那么简单。我目前所在公司正好对产品做了一次“大布局重构”,下面我就分享这个“大布局”项目经验给大家。
背景
公司专注于企业级管理产品软件,企业有大中小之分,在2000年初公司用JSP/Servlet开发了一套针对中
- 电驴链接在线视频播放源码
dubinwei
源码电驴播放器视频ed2k
本项目是个搜索电驴(ed2k)链接的应用,借助于磁力视频播放器(官网:
http://loveandroid.duapp.com/ 开放平台),可以实现在线播放视频,也可以用迅雷或者其他下载工具下载。
项目源码:
http://git.oschina.net/svo/Emule,动态更新。也可从附件中下载。
项目源码依赖于两个库项目,库项目一链接:
http://git.oschina.
- Javascript中函数的toString()方法
周凡杨
JavaScriptjstoStringfunctionobject
简述
The toString() method returns a string representing the source code of the function.
简译之,Javascript的toString()方法返回一个代表函数源代码的字符串。
句法
function.
- struts处理自定义异常
g21121
struts
很多时候我们会用到自定义异常来表示特定的错误情况,自定义异常比较简单,只要分清是运行时异常还是非运行时异常即可,运行时异常不需要捕获,继承自RuntimeException,是由容器自己抛出,例如空指针异常。
非运行时异常继承自Exception,在抛出后需要捕获,例如文件未找到异常。
此处我们用的是非运行时异常,首先定义一个异常LoginException:
/**
* 类描述:登录相
- Linux中find常见用法示例
510888780
linux
Linux中find常见用法示例
·find path -option [ -print ] [ -exec -ok command ] {} \;
find命令的参数;
- SpringMVC的各种参数绑定方式
Harry642
springMVC绑定表单
1. 基本数据类型(以int为例,其他类似):
Controller代码:
@RequestMapping("saysth.do")
public void test(int count) {
}
表单代码:
<form action="saysth.do" method="post&q
- Java 获取Oracle ROWID
aijuans
javaoracle
A ROWID is an identification tag unique for each row of an Oracle Database table. The ROWID can be thought of as a virtual column, containing the ID for each row.
The oracle.sql.ROWID class i
- java获取方法的参数名
antlove
javajdkparametermethodreflect
reflect.ClassInformationUtil.java
package reflect;
import javassist.ClassPool;
import javassist.CtClass;
import javassist.CtMethod;
import javassist.Modifier;
import javassist.bytecode.CodeAtt
- JAVA正则表达式匹配 查找 替换 提取操作
百合不是茶
java正则表达式替换提取查找
正则表达式的查找;主要是用到String类中的split();
String str;
str.split();方法中传入按照什么规则截取,返回一个String数组
常见的截取规则:
str.split("\\.")按照.来截取
str.
- Java中equals()与hashCode()方法详解
bijian1013
javasetequals()hashCode()
一.equals()方法详解
equals()方法在object类中定义如下:
public boolean equals(Object obj) {
return (this == obj);
}
很明显是对两个对象的地址值进行的比较(即比较引用是否相同)。但是我们知道,String 、Math、I
- 精通Oracle10编程SQL(4)使用SQL语句
bijian1013
oracle数据库plsql
--工资级别表
create table SALGRADE
(
GRADE NUMBER(10),
LOSAL NUMBER(10,2),
HISAL NUMBER(10,2)
)
insert into SALGRADE values(1,0,100);
insert into SALGRADE values(2,100,200);
inser
- 【Nginx二】Nginx作为静态文件HTTP服务器
bit1129
HTTP服务器
Nginx作为静态文件HTTP服务器
在本地系统中创建/data/www目录,存放html文件(包括index.html)
创建/data/images目录,存放imags图片
在主配置文件中添加http指令
http {
server {
listen 80;
server_name
- kafka获得最新partition offset
blackproof
kafkapartitionoffset最新
kafka获得partition下标,需要用到kafka的simpleconsumer
import java.util.ArrayList;
import java.util.Collections;
import java.util.Date;
import java.util.HashMap;
import java.util.List;
import java.
- centos 7安装docker两种方式
ronin47
第一种是采用yum 方式
yum install -y docker
 
- java-60-在O(1)时间删除链表结点
bylijinnan
java
public class DeleteNode_O1_Time {
/**
* Q 60 在O(1)时间删除链表结点
* 给定链表的头指针和一个结点指针(!!),在O(1)时间删除该结点
*
* Assume the list is:
* head->...->nodeToDelete->mNode->nNode->..
- nginx利用proxy_cache来缓存文件
cfyme
cache
user zhangy users;
worker_processes 10;
error_log /var/vlogs/nginx_error.log crit;
pid /var/vlogs/nginx.pid;
#Specifies the value for ma
- [JWFD开源工作流]JWFD嵌入式语法分析器负号的使用问题
comsci
嵌入式
假如我们需要用JWFD的语法分析模块定义一个带负号的方程式,直接在方程式之前添加负号是不正确的,而必须这样做:
string str01 = "a=3.14;b=2.71;c=0;c-((a*a)+(b*b))"
定义一个0整数c,然后用这个整数c去
- 如何集成支付宝官方文档
dai_lm
android
官方文档下载地址
https://b.alipay.com/order/productDetail.htm?productId=2012120700377310&tabId=4#ps-tabinfo-hash
集成的必要条件
1. 需要有自己的Server接收支付宝的消息
2. 需要先制作app,然后提交支付宝审核,通过后才能集成
调试的时候估计会真的扣款,请注意
- 应该在什么时候使用Hadoop
datamachine
hadoop
原帖地址:http://blog.chinaunix.net/uid-301743-id-3925358.html
存档,某些观点与我不谋而合,过度技术化不可取,且hadoop并非万能。
--------------------------------------------万能的分割线--------------------------------
有人问我,“你在大数据和Hado
- 在GridView中对于有外键的字段使用关联模型进行搜索和排序
dcj3sjt126com
yii
在GridView中使用关联模型进行搜索和排序
首先我们有两个模型它们直接有关联:
class Author extends CActiveRecord {
...
}
class Post extends CActiveRecord {
...
function relations() {
return array(
'
- 使用NSString 的格式化大全
dcj3sjt126com
Objective-C
格式定义The format specifiers supported by the NSString formatting methods and CFString formatting functions follow the IEEE printf specification; the specifiers are summarized in Table 1. Note that you c
- 使用activeX插件对象object滚动有重影
蕃薯耀
activeX插件滚动有重影
使用activeX插件对象object滚动有重影 <object style="width:0;" id="abc" classid="CLSID:D3E3970F-2927-9680-BBB4-5D0889909DF6" codebase="activex/OAX339.CAB#
- SpringMVC4零配置
hanqunfeng
springmvc4
基于Servlet3.0规范和SpringMVC4注解式配置方式,实现零xml配置,弄了个小demo,供交流讨论。
项目说明如下:
1.db.sql是项目中用到的表,数据库使用的是oracle11g
2.该项目使用mvn进行管理,私服为自搭建nexus,项目只用到一个第三方 jar,就是oracle的驱动;
3.默认项目为零配置启动,如果需要更改启动方式,请
- 《开源框架那点事儿16》:缓存相关代码的演变
j2eetop
开源框架
问题引入
上次我参与某个大型项目的优化工作,由于系统要求有比较高的TPS,因此就免不了要使用缓冲。
该项目中用的缓冲比较多,有MemCache,有Redis,有的还需要提供二级缓冲,也就是说应用服务器这层也可以设置一些缓冲。
当然去看相关实现代代码的时候,大致是下面的样子。
[java]
view plain
copy
print
?
public vo
- AngularJS浅析
kvhur
JavaScript
概念
AngularJS is a structural framework for dynamic web apps.
了解更多详情请见原文链接:http://www.gbtags.com/gb/share/5726.htm
Directive
扩展html,给html添加声明语句,以便实现自己的需求。对于页面中html元素以ng为前缀的属性名称,ng是angular的命名空间
- 架构师之jdk的bug排查(一)---------------split的点号陷阱
nannan408
split
1.前言.
jdk1.6的lang包的split方法是有bug的,它不能有效识别A.b.c这种类型,导致截取长度始终是0.而对于其他字符,则无此问题.不知道官方有没有修复这个bug.
2.代码
String[] paths = "object.object2.prop11".split("'");
System.ou
- 如何对10亿数据量级的mongoDB作高效的全表扫描
quentinXXZ
mongodb
本文链接:
http://quentinXXZ.iteye.com/blog/2149440
一、正常情况下,不应该有这种需求
首先,大家应该有个概念,标题中的这个问题,在大多情况下是一个伪命题,不应该被提出来。要知道,对于一般较大数据量的数据库,全表查询,这种操作一般情况下是不应该出现的,在做正常查询的时候,如果是范围查询,你至少应该要加上limit。
说一下,
- C语言算法之水仙花数
qiufeihu
c算法
/**
* 水仙花数
*/
#include <stdio.h>
#define N 10
int main()
{
int x,y,z;
for(x=1;x<=N;x++)
for(y=0;y<=N;y++)
for(z=0;z<=N;z++)
if(x*100+y*10+z == x*x*x
- JSP指令
wyzuomumu
jsp
jsp指令的一般语法格式: <%@ 指令名 属性 =”值 ” %>
常用的三种指令: page,include,taglib
page指令语法形式: <%@ page 属性 1=”值 1” 属性 2=”值 2”%>
include指令语法形式: <%@include file=”relative url”%> (jsp可以通过 include