- 千亿参数大模型轻量化实战:手机端LLM推理加速300%方案
前言前些天发现了一个巨牛的人工智能免费学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家。点击跳转到网站《千亿参数大模型轻量化实战:手机端LLM推理加速300%方案》副标题:2025实测骁龙8Gen4+FP4稀疏量化技术,70B模型推理延迟低至127ms,重构移动端AI天花板封面图:[高通骁龙8Gen4芯片显微照片与Llama3-70B手机端运行界面对比图,右上角标注「实测延迟:127ms/tok
- 大模型学习 (Datawhale_Happy-LLM)笔记7: Encoder-Decoder PLM
lxltom
学习笔记languagemodel自然语言处理神经网络人工智能深度学习
大模型学习(Datawhale_Happy-LLM)笔记7:Encoder-DecoderPLM1.Encoder-Decoder架构概述1.1架构基础Encoder-DecoderPLM是基于原始Transformer架构的完整实现,它同时保留了编码器(Encoder)和解码器(Decoder)两个核心组件。这种设计使得模型能够兼具文本理解和生成的双重能力,特别适合处理序列到序列(Seq2Seq
- [AI笔记]-LLM中的3种架构:Encoder-Only、Decoder-Only、Encoder-Decoder
Micheal超
AI笔记人工智能笔记架构
一、概述架构描述特点案例Encoder-Only仅包含编码器部分这类模型主要专注输入数据中提取特征或上下文信息,通常不需要生成新内容、只需要理解输入的任务,如:分类(文本分类、情感分析等)、信息抽取、序列标注等。在这种架构中,所有的注意力机制和网络层都集中在编码输入数据上,其输出通常是关于输入的复杂语义表示。谷歌的BERT、智谱AI发布的第四代基座大语言模型GLM4Decoder-Only也被称为
- 提示技术系列——主动提示
AIGC包拥它
提示技术人工智能promptpythonlangchain
什么是提示技术?提示技术是实现提示工程目标的具体技术手段,是提示工程中的“工具库”。什么又是提示工程?提示工程是指通过设计、优化和迭代输入到大语言模型(LLM)的提示(Prompt),系统性提升模型输出质量(如相关性、准确性、可控性)的实践领域。它是一个覆盖全流程的方法论,包括:明确目标任务(如生成教学内容、问答、翻译);设计提示结构(如指令、上下文、示例);选择模型与参数(如温度、top_p);
- workflow的可编排协作模式
思绪漂移
人工智能agentworkflow模式
Workflow的可编排协作模式在AI工作流设计中,协作模式的选择直接影响系统效率和结果质量。本文将系统分析6种主流协作模式,探讨选择方案与适合场景。一、传统单一模式特点:使用标准框架进行线性编排所有任务按固定顺序执行适合简单、确定性强的流程适用场景:规则明确、步骤固定的业务流程自动化二、路由模式核心机制:LLM先识别用户意图根据意图路由到对应处理模块优势:意图识别准确率高资源分配精准典型应用:客
- AI agent开发出办公AI小助手的学习方案和路线
云博士的AI课堂
大模型技术开发与实践大模型AIAgent人工智能自动化
一个从基础概念、关键技术栈到实际落地的AIAgent开发全流程学习路线和开发方法建议。此方案参考当前主流大模型(LLM)及相关工具链生态,总体目标是从零开始了解所需知识体系与技能,并能在实践中构建自动化的客服AI或者办公辅助类AI助手。学习与开发的总体思路明确目标场景与需求:在开始前,确定需要开发的AIAgent的功能点和使用场景。例如,客服AI需要具备回答客户常见问题、查询订单状态、转接人工客服
- 构建下一代云原生大模型多租户平台:架构设计与关键挑战
慌ZHANG
人工智能云原生后端云原生人工智能
个人主页:慌ZHANG-CSDN博客期待您的关注一、引言:从单用户部署到多租户平台的转型趋势随着开源大语言模型(LLM)能力日益强大,企业部署与应用大模型已从“验证可行性”的早期阶段,逐步迈向“规模化服务”的中后期阶段。在这一背景下,“多租户”成为企业级AI平台建设的核心议题之一:SaaS平台希望一个模型服务多个客户;大企业希望多个部门共享模型资源但相互隔离;教育、医疗等敏感行业需要更精细的数据与
- vLLM调度部署Qwen3
你好,此用户已存在
人工智能linux大模型
vLLM介绍在之前的文章中,我们介绍了如何使用ollama部署qwen3,一般而言,ollama适合个人部署使用,在面对企业级的模型部署时,一般更建议使用vLLMvLLM(高效大语言模型推理库)是一个专为大语言模型(LLMs)优化推理速度的开源框架,由斯坦福大学系统研究组开发。其核心目标是通过创新的软件和算法设计,大幅提升LLM在生成文本时的吞吐量和效率,尤其适用于处理高并发的推理请求。从各种基准
- 初学Spring AI 笔记
笑衬人心。
大模型学习spring人工智能笔记
目录SpringAI简介依赖与环境配置基础概念集成OpenAI(或其他LLM提供商)Prompt模板引擎Embedding与向量数据库SpringAIChatClient使用SpringAI和LangChain对比常见问题与建议SpringAI简介SpringAI是Spring团队推出的人工智能集成框架,旨在简化AI模型(如OpenAI、HuggingFace、Mistral、AzureOpenA
- 基于langchain的法律助手工作流的搭建
一尾清风915
langchain语言模型python人工智能chatgptai
该工作流有四个llm组成,包括三个worker以及一个planner。planner用于识别用户输入,将其划分为具体任务并调用相应的worker。worker则根据输入进行工作,三个worker分别用于法条翻译,法条查询以及案例分析。其中planner、lawtrans、lasearch使用的都是gpt4,embedding模型使用的是openai的text-embedding-ada-002。c
- LLM大语言模型学习笔记(1)
Arixs666
大语言模型语言模型笔记人工智能
1.概念大语言模型(LLM,LargeLanguageModel),也称大型语言模型,是一种旨在理解和生成人类语言的人工智能模型。LLM通常指包含数百亿(或更多)参数的语言模型,它们在海量的文本数据上进行训练,从而获得对语言深层次的理解。2.能力2.1涌现能力区分大语言模型(LLM)与以前的预训练语言模型(PLM)最显著的特征之一是它们的涌现能力。涌现能力是一种令人惊讶的能力,它在小型模型中不明显
- 大语言模型LLM原理篇
大模型席卷全球,彷佛得模型者得天下。对于IT行业来说,以后可能没有各种软件了,只有各种各样的智体(Agent)调用各种各样的API。在这种大势下,笔者也阅读了很多大模型相关的资料,和很多新手一样,开始脑子里都是一团乱麻,随着相关文章越读越多,再进行内容梳理,终于理清了一条清晰的脉络。笔者写原理篇时心情是有些惴惴不安的,因为毕竟对大模型的研究有限,缺乏深度。但是,还是觉得有必要记录一下学习理解心得,
- 大语言模型(LLM)笔记
笑衬人心。
大模型学习语言模型笔记人工智能
一、什么是大语言模型(LLM)?LLM(LargeLanguageModel)是基于Transformer架构构建,并在海量文本语料上训练出的具备自然语言理解和生成能力的深度神经网络模型。其本质任务是**预测下一个token(词/字/符号)**的概率分布,但通过大规模参数和数据的支持,表现出类人智能的行为。二、核心架构:Transformer由Google在2017年提出,是目前LLM的主流架构。
- 智能之火,重塑创造:大模型如何点燃新一代开发引擎?
黑巧克力可减脂
AIGC人工智能AIGC
导言:普罗米修斯之火再现在科技演进的长河中,每一次生产力的跃迁都伴随着工具的质变。从蒸汽机轰鸣到电力普及,再到信息高速公路的铺就,人类驾驭能量的能力不断突破。今天,我们站在一个崭新的临界点上:大语言模型(LLM)正将人工智能的“普罗米修斯之火”引入软件开发的核心腹地。这不再仅仅是效率的优化,更是对开发者角色、开发流程乃至软件本质的深度重塑。GitHubCEOThomasDohmke曾断言:“Cop
- 智能新纪元:大语言模型如何重塑电商“人货场”经典范式
黑巧克力可减脂
AIGC语言模型人工智能自然语言处理
开篇引言“善战者,求之于势,不责于人。”——《孙子兵法·兵势篇》当全球电商交易额突破6.3万亿美元(Statista2024),增长引擎却显露疲态。流量红利消退、同质化竞争加剧、消费者需求碎片化——传统“人货场”理论正遭遇前所未有的挑战。而大语言模型(LLM)的出现,恰似一柄重铸商业逻辑的“科技之锤”,正在为电商领域开启一场静水深流的革命性变革。基石重塑:当“人货场”遇见大模型智能经典理论再审视:
- AI:微调框架 LLaMA-Factory(Large Language Model Factory)
xyzroundo
AI人工智能llama语言模型sftllama-factoryAI
LLaMA-Factory(LargeLanguageModelFactory)是由北航团队开源的高效大语言模型(LLM)微调框架,旨在简化大型语言模型的定制化训练流程,支持超过100种主流模型和多种先进微调技术。以下从核心功能、安装部署、微调流程和应用场景四个方面详细介绍:一、核心功能与特点广泛的模型支持支持LLaMA3、Mistral、Qwen、ChatGLM、Gemma、Phi、Yi、Bai
- 大模型系列——提示词工程:从原理、实践到未来的一部系统性综述
猫猫姐
大模型人工智能大模型提示词
提示词工程:从原理、实践到未来的一部系统性综述摘要本文系统性地阐述了提示词工程(PromptEngineering)这一关键领域,它作为释放大语言模型(LLM)潜能的核心人机交互范式。报告从LLM的“下一个词预测”基本机制出发,追溯了提示词工程从GPT-3时代“上下文学习”的偶然发现到当前系统化、工程化的演进历程。本文深度剖析了多种高级提示框架,包括旨在激发模型逐步推理的“思维链”(Chain-o
- 【知识图谱构建系列1】数据集介绍
几道之旅
人工智能智能体及数字员工Python杂货铺AI自建MCP学习记录知识图谱
文章目录项目简介数据集简介数据集核心内容应用与影响小细节参考论文:hal.science/hal-04862214/项目地址:https://github.com/ChristopheCruz/LLM4KGC/项目简介我们所要学习的项目(LLM4KGC)聚焦于利用大语言模型(LLMs)实现从文本到知识图谱(Text-to-KnowledgeGraph,T2KG)的自动化构建,旨在探索高效可靠的知识
- LangChain4j -- ChatMemory
大白鹅~
javaai
ChatMemory和持久化存储管理并手动维护ChatMessages管理和手动维护ChatMessages是繁琐的工作,因此LangChain4j提供了一个名为ChatMemory的抽象层,以及多个开箱即用的实现。ChatMemory可以用作独立的底层组件,也可以作为高层次组件如AI服务的一部分使用。ChatMemory的主要功能驱逐策略:为了适应LLM的上下文窗口限制、控制成本和延迟。持久化:
- MCP vs LangChain:标准化协议与开发框架的优劣对比
guohuang
MCP人工智能深度学习大模型
随着大型语言模型(LLM)技术的迅速发展,开发者需要高效的工具来构建基于LLM的应用。MCP(ModelContextProtocol)和LangChain作为两种主流解决方案,各有优缺点。本文将从技术入门者的角度,对这两种技术进行深入对比分析。1.概述MCP:标准化协议MCP(ModelContextProtocol)是由Anthropic提出的一种标准化协议,旨在统一大模型API的调用方式,简
- LangGraph深度解析:构建持久化、可观测的智能体工作流
kakaZhui
大模型Agent入门与代码实战AIGCLLM人工智能AgentMcp
一、项目概述与技术定位1.1LangGraph核心价值LangGraph是由LangChain团队推出的开源框架(GitHub仓库:https://github.com/langchain-ai/langgraph),专为构建持久化、状态化的智能体工作流设计。作为LangChain生态系统的战略补充,它解决了传统LLM应用在以下方面的关键痛点:持久化执行:支持长时间运行(数小时/天级)的工作流,故
- 面向大语言模型幻觉的关键数据集:系统性综述与分类法
致Great
语言模型人工智能自然语言处理
面向大语言模型幻觉的关键数据集:系统性综述与分类法摘要大语言模型(LargeLanguageModels,LLMs)在自然语言处理的多个领域取得了革命性进展,但其固有的“幻觉”问题——即生成看似合理但与事实不符或与上下文无关的内容——严重制约了其在关键应用中的可靠性与安全性。为了系统性地评估、理解并缓解LLM的幻觉现象,学术界和工业界开发了大量多样化的数据集与基准。本文对大模型幻觉领域的关键数据集
- 导师要求一天完成综述,我7分钟搞定——打造一个全本地DeepResearch助手
小洛~·~
人工智能深度学习chatgptgptAI写作
1.项目背景LocalDeepResearcher是一个本地化运行的AI研究助手,旨在通过结合大语言模型(LLM)和搜索工具,实现自动化深度研究并生成结构化报告。该项目由LangChainAI开发,支持本地模型(例如通过Ollama运行的deepseek-r1:7b)和云端模型(例如Claude、GPT),并集成了多种搜索引擎(如Tavily、DuckDuckGo)。其本地优先的设计确保了数据隐私
- 通过本地LLM搭建本地RAG
TBM矩阵
#AI体系学习人工智能
整体思路通过ollama下载并搭建本地大预言模型LLM。通过ollama搭建embedding模型。通过langchain文件加载器加载本地内容文件(PDF文件)。通过langchain调用embedding模型进行向量存储和RAG检索。通过langchainprompts实现提示词工程。通过langchain调用LLM模型实现RAG生成,完成对本地文件的分析。准备环境服务器:CentOSLinu
- 微调大语言模型后,如何评估效果?一文讲清
茫茫人海一粒沙
人工智能
在做大语言模型(LLM)微调时,“怎么判断模型调得好不好”是必须回答的问题。无论是在研究、项目落地,还是面试中,评估方法都不能停留在“训练loss降了”这么简单。本文从评估目标、技术指标、业务适配、实战建议四个维度,讲清楚微调后的模型评估怎么做,为什么这么做。一,评估前,先搞清楚目标不同的微调目的,评估方式也不同:✅精调任务能力:判断模型是否更好完成分类、问答、摘要、代码生成等任务。✅领域适应:关
- 本地运行大型语言模型(LLM)的实践指南
yunwu12777
语言模型人工智能自然语言处理
技术背景介绍近年来,项目如llama.cpp、Ollama、GPT4All等的流行标志着在本地设备上运行大型语言模型(LLM)的需求日益增长。选择在本地运行LLM,至少有两个重要的好处:隐私和成本。隐私上,数据不需要发送到第三方,避免了商业服务条款的限制;成本方面,无需支付推理费用,尤其是对于那些需要大量计算的应用,如长时间的模拟和总结。核心原理解析在本地运行LLM,需要准备以下几个条件:开源LL
- 构建私有视觉搜索应用:多模态大模型的应用实例
2301_80727036
自然语言处理
在当今的科技时代,视觉搜索功能已经不再是新鲜事物,许多智能手机用户都可以通过自然语言搜索照片。随着开源多模态大型语言模型(Multi-modalLLMs)的兴起,我们现在可以为自己构建这种视觉搜索应用,用于管理自己的私人照片收藏。本教程将向您展示如何通过代码示例,使用开源多模态LLM构建私有视觉搜索和问答系统。技术背景介绍多模态大模型结合了文本和图像处理能力,使得我们可以开发更智能的应用程序。通过
- Spring AI 结合 MCP MySQL 实现对话式数据库查询
没刮胡子
软件开发技术实战专栏人工智能AISpring数据库spring人工智能spring-aimcp-servermysql
在现代应用开发中,将人工智能与数据库查询结合可以创造更自然、更智能的用户交互方式。下面我将详细介绍如何使用SpringAI框架结合MCP(可能指MySQL连接池或相关组件)实现对话中的数据库查询功能。什么是SpringAI和MCPMySQLSpringAI框架概述SpringAI是基于Spring生态的人工智能集成框架,它提供了:与大型语言模型(LLM)的集成能力对话管理和自然语言处理功能业务逻辑
- 构建智能对话式BI的关键:ChatBI场景下的Agent框架选型深
写在前面在数据驱动决策的时代,商业智能(BI)工具扮演着至关重要的角色。然而,传统BI工具往往需要用户具备一定的SQL知识或熟悉复杂的操作界面。对话式BI(ChatBI)的出现,旨在通过自然语言交互,让任何人都能轻松获取数据洞察,极大降低了数据分析的门槛。构建一个强大、灵活且可扩展的ChatBI应用,其核心离不开一个合适的Agent框架。Agent框架如同应用的“龙骨”,为LLM赋予了感知、思考、
- 【LangChain】langchain.chains.create_sql_query_chain() 函数:基于自然语言生成 SQL 查询的链(Chain)
彬彬侠
LangChainlangchainchainscreate_sql_quersql_databasesql
langchain.chains.create_sql_query_chain函数是LangChain库中的一个函数,用于创建基于自然语言生成SQL查询的链(Chain),结合语言模型(LLM)和数据库上下文生成可执行的SQL语句。本文基于LangChain0.3.x,详细介绍create_sql_query_chain的定义、参数、方法和典型场景,并提供一个独立示例,展示如何使用create_s
- rust的指针作为函数返回值是直接传递,还是先销毁后创建?
wudixiaotie
返回值
这是我自己想到的问题,结果去知呼提问,还没等别人回答, 我自己就想到方法实验了。。
fn main() {
let mut a = 34;
println!("a's addr:{:p}", &a);
let p = &mut a;
println!("p's addr:{:p}", &a
- java编程思想 -- 数据的初始化
百合不是茶
java数据的初始化
1.使用构造器确保数据初始化
/*
*在ReckInitDemo类中创建Reck的对象
*/
public class ReckInitDemo {
public static void main(String[] args) {
//创建Reck对象
new Reck();
}
}
- [航天与宇宙]为什么发射和回收航天器有档期
comsci
地球的大气层中有一个时空屏蔽层,这个层次会不定时的出现,如果该时空屏蔽层出现,那么将导致外层空间进入的任何物体被摧毁,而从地面发射到太空的飞船也将被摧毁...
所以,航天发射和飞船回收都需要等待这个时空屏蔽层消失之后,再进行
&
- linux下批量替换文件内容
商人shang
linux替换
1、网络上现成的资料
格式: sed -i "s/查找字段/替换字段/g" `grep 查找字段 -rl 路径`
linux sed 批量替换多个文件中的字符串
sed -i "s/oldstring/newstring/g" `grep oldstring -rl yourdir`
例如:替换/home下所有文件中的www.admi
- 网页在线天气预报
oloz
天气预报
网页在线调用天气预报
<%@ page language="java" contentType="text/html; charset=utf-8"
pageEncoding="utf-8"%>
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transit
- SpringMVC和Struts2比较
杨白白
springMVC
1. 入口
spring mvc的入口是servlet,而struts2是filter(这里要指出,filter和servlet是不同的。以前认为filter是servlet的一种特殊),这样就导致了二者的机制不同,这里就牵涉到servlet和filter的区别了。
参见:http://blog.csdn.net/zs15932616453/article/details/8832343
2
- refuse copy, lazy girl!
小桔子
copy
妹妹坐船头啊啊啊啊!都打算一点点琢磨呢。文字编辑也写了基本功能了。。今天查资料,结果查到了人家写得完完整整的。我清楚的认识到:
1.那是我自己觉得写不出的高度
2.如果直接拿来用,很快就能解决问题
3.然后就是抄咩~~
4.肿么可以这样子,都不想写了今儿个,留着作参考吧!拒绝大抄特抄,慢慢一点点写!
- apache与php整合
aichenglong
php apache web
一 apache web服务器
1 apeche web服务器的安装
1)下载Apache web服务器
2)配置域名(如果需要使用要在DNS上注册)
3)测试安装访问http://localhost/验证是否安装成功
2 apache管理
1)service.msc进行图形化管理
2)命令管理,配
- Maven常用内置变量
AILIKES
maven
Built-in properties
${basedir} represents the directory containing pom.xml
${version} equivalent to ${project.version} (deprecated: ${pom.version})
Pom/Project properties
Al
- java的类和对象
百合不是茶
JAVA面向对象 类 对象
java中的类:
java是面向对象的语言,解决问题的核心就是将问题看成是一个类,使用类来解决
java使用 class 类名 来创建类 ,在Java中类名要求和构造方法,Java的文件名是一样的
创建一个A类:
class A{
}
java中的类:将某两个事物有联系的属性包装在一个类中,再通
- JS控制页面输入框为只读
bijian1013
JavaScript
在WEB应用开发当中,增、删除、改、查功能必不可少,为了减少以后维护的工作量,我们一般都只做一份页面,通过传入的参数控制其是新增、修改或者查看。而修改时需将待修改的信息从后台取到并显示出来,实际上就是查看的过程,唯一的区别是修改时,页面上所有的信息能修改,而查看页面上的信息不能修改。因此完全可以将其合并,但通过前端JS将查看页面的所有信息控制为只读,在信息量非常大时,就比较麻烦。
- AngularJS与服务器交互
bijian1013
JavaScriptAngularJS$http
对于AJAX应用(使用XMLHttpRequests)来说,向服务器发起请求的传统方式是:获取一个XMLHttpRequest对象的引用、发起请求、读取响应、检查状态码,最后处理服务端的响应。整个过程示例如下:
var xmlhttp = new XMLHttpRequest();
xmlhttp.onreadystatechange
- [Maven学习笔记八]Maven常用插件应用
bit1129
maven
常用插件及其用法位于:http://maven.apache.org/plugins/
1. Jetty server plugin
2. Dependency copy plugin
3. Surefire Test plugin
4. Uber jar plugin
1. Jetty Pl
- 【Hive六】Hive用户自定义函数(UDF)
bit1129
自定义函数
1. 什么是Hive UDF
Hive是基于Hadoop中的MapReduce,提供HQL查询的数据仓库。Hive是一个很开放的系统,很多内容都支持用户定制,包括:
文件格式:Text File,Sequence File
内存中的数据格式: Java Integer/String, Hadoop IntWritable/Text
用户提供的 map/reduce 脚本:不管什么
- 杀掉nginx进程后丢失nginx.pid,如何重新启动nginx
ronin47
nginx 重启 pid丢失
nginx进程被意外关闭,使用nginx -s reload重启时报如下错误:nginx: [error] open() “/var/run/nginx.pid” failed (2: No such file or directory)这是因为nginx进程被杀死后pid丢失了,下一次再开启nginx -s reload时无法启动解决办法:nginx -s reload 只是用来告诉运行中的ng
- UI设计中我们为什么需要设计动效
brotherlamp
UIui教程ui视频ui资料ui自学
随着国际大品牌苹果和谷歌的引领,最近越来越多的国内公司开始关注动效设计了,越来越多的团队已经意识到动效在产品用户体验中的重要性了,更多的UI设计师们也开始投身动效设计领域。
但是说到底,我们到底为什么需要动效设计?或者说我们到底需要什么样的动效?做动效设计也有段时间了,于是尝试用一些案例,从产品本身出发来说说我所思考的动效设计。
一、加强体验舒适度
嗯,就是让用户更加爽更加爽的用你的产品。
- Spring中JdbcDaoSupport的DataSource注入问题
bylijinnan
javaspring
参考以下两篇文章:
http://www.mkyong.com/spring/spring-jdbctemplate-jdbcdaosupport-examples/
http://stackoverflow.com/questions/4762229/spring-ldap-invoking-setter-methods-in-beans-configuration
Sprin
- 数据库连接池的工作原理
chicony
数据库连接池
随着信息技术的高速发展与广泛应用,数据库技术在信息技术领域中的位置越来越重要,尤其是网络应用和电子商务的迅速发展,都需要数据库技术支持动 态Web站点的运行,而传统的开发模式是:首先在主程序(如Servlet、Beans)中建立数据库连接;然后进行SQL操作,对数据库中的对象进行查 询、修改和删除等操作;最后断开数据库连接。使用这种开发模式,对
- java 关键字
CrazyMizzz
java
关键字是事先定义的,有特别意义的标识符,有时又叫保留字。对于保留字,用户只能按照系统规定的方式使用,不能自行定义。
Java中的关键字按功能主要可以分为以下几类:
(1)访问修饰符
public,private,protected
p
- Hive中的排序语法
daizj
排序hiveorder byDISTRIBUTE BYsort by
Hive中的排序语法 2014.06.22 ORDER BY
hive中的ORDER BY语句和关系数据库中的sql语法相似。他会对查询结果做全局排序,这意味着所有的数据会传送到一个Reduce任务上,这样会导致在大数量的情况下,花费大量时间。
与数据库中 ORDER BY 的区别在于在hive.mapred.mode = strict模式下,必须指定 limit 否则执行会报错。
- 单态设计模式
dcj3sjt126com
设计模式
单例模式(Singleton)用于为一个类生成一个唯一的对象。最常用的地方是数据库连接。 使用单例模式生成一个对象后,该对象可以被其它众多对象所使用。
<?phpclass Example{ // 保存类实例在此属性中 private static&
- svn locked
dcj3sjt126com
Lock
post-commit hook failed (exit code 1) with output:
svn: E155004: Working copy 'D:\xx\xxx' locked
svn: E200031: sqlite: attempt to write a readonly database
svn: E200031: sqlite: attempt to write a
- ARM寄存器学习
e200702084
数据结构C++cC#F#
无论是学习哪一种处理器,首先需要明确的就是这种处理器的寄存器以及工作模式。
ARM有37个寄存器,其中31个通用寄存器,6个状态寄存器。
1、不分组寄存器(R0-R7)
不分组也就是说说,在所有的处理器模式下指的都时同一物理寄存器。在异常中断造成处理器模式切换时,由于不同的处理器模式使用一个名字相同的物理寄存器,就是
- 常用编码资料
gengzg
编码
List<UserInfo> list=GetUserS.GetUserList(11);
String json=JSON.toJSONString(list);
HashMap<Object,Object> hs=new HashMap<Object, Object>();
for(int i=0;i<10;i++)
{
- 进程 vs. 线程
hongtoushizi
线程linux进程
我们介绍了多进程和多线程,这是实现多任务最常用的两种方式。现在,我们来讨论一下这两种方式的优缺点。
首先,要实现多任务,通常我们会设计Master-Worker模式,Master负责分配任务,Worker负责执行任务,因此,多任务环境下,通常是一个Master,多个Worker。
如果用多进程实现Master-Worker,主进程就是Master,其他进程就是Worker。
如果用多线程实现
- Linux定时Job:crontab -e 与 /etc/crontab 的区别
Josh_Persistence
linuxcrontab
一、linux中的crotab中的指定的时间只有5个部分:* * * * *
分别表示:分钟,小时,日,月,星期,具体说来:
第一段 代表分钟 0—59
第二段 代表小时 0—23
第三段 代表日期 1—31
第四段 代表月份 1—12
第五段 代表星期几,0代表星期日 0—6
如:
*/1 * * * * 每分钟执行一次。
*
- KMP算法详解
hm4123660
数据结构C++算法字符串KMP
字符串模式匹配我们相信大家都有遇过,然而我们也习惯用简单匹配法(即Brute-Force算法),其基本思路就是一个个逐一对比下去,这也是我们大家熟知的方法,然而这种算法的效率并不高,但利于理解。
假设主串s="ababcabcacbab",模式串为t="
- 枚举类型的单例模式
zhb8015
单例模式
E.编写一个包含单个元素的枚举类型[极推荐]。代码如下:
public enum MaYun {himself; //定义一个枚举的元素,就代表MaYun的一个实例private String anotherField;MaYun() {//MaYun诞生要做的事情//这个方法也可以去掉。将构造时候需要做的事情放在instance赋值的时候:/** himself = MaYun() {*
- Kafka+Storm+HDFS
ssydxa219
storm
cd /myhome/usr/stormbin/storm nimbus &bin/storm supervisor &bin/storm ui &Kafka+Storm+HDFS整合实践kafka_2.9.2-0.8.1.1.tgzapache-storm-0.9.2-incubating.tar.gzKafka安装配置我们使用3台机器搭建Kafk
- Java获取本地服务器的IP
中华好儿孙
javaWeb获取服务器ip地址
System.out.println("getRequestURL:"+request.getRequestURL());
System.out.println("getLocalAddr:"+request.getLocalAddr());
System.out.println("getLocalPort:&quo