- Transformers模型版本和lm_eval老版本冲突问题ImportError: cannot import name ‘initialize_tasks‘ from ‘lm_eval.task
neverwin6
llamapython服务器
Transformers模型版本和lm_eval老版本冲突问题1问题背景在LLM评测的时候,要用lm_eval模型,而对于像是llama3/Mistrual等比较新的模型,较低的Transformers不能适配,所以要升级到0.40.0以上才行,但是如果升级的话,那么直接在沿用老版本的lm_eval评测就会出现:Traceback(mostrecentcalllast):File"main.py"
- KV 缓存简介
dev.null
AI缓存
以下是关于KV缓存(Key-ValueCache)的简介,涵盖其定义、原理、作用及优化意义:1.什么是KV缓存?KV缓存是Transformer架构(如GPT、LLaMA等大模型)在自回归生成任务(如文本生成)中,用于加速推理过程的核心技术。其本质是:在生成序列时,缓存历史token的Key和Value矩阵,避免重复计算,从而显著减少计算量。2.为什么需要KV缓存?传统自注意力计算的问题在生成第t
- 使用LoRA微调LLaMA3
想胖的壮壮
深度学习人工智能
使用LoRA微调LLaMA3的案例案例概述在这个案例中,我们将使用LoRA微调LLaMA3模型,进行一个文本分类任务。我们将使用HuggingFace的Transformers库来完成这个过程。步骤一:环境搭建安装必要的Python包pipinstalltransformersdatasetstorch配置GPU环境确保你的环境中配置了CUDA和cuDNN,并验证GPU是否可用。importtor
- llama.cpp 和 LLM(大语言模型)
这个懒人
llama语言模型人工智能
llama.cpp和LLM(大语言模型)的介绍,以及两者的关联与区别:1.LLM(LargeLanguageModel,大语言模型)定义:LLM是基于深度学习技术(如Transformer架构)构建的超大参数量的自然语言处理模型。它通过海量文本数据训练,能够生成连贯、语义丰富的文本,完成问答、创作、推理等任务。特点:参数规模大:如GPT-3(1750亿参数)、Llama-65B(650亿参数)等。
- LLaMA-Factory 微调训练
zsh_abc
llamadocker深度学习人工智能pythonlinux
LLaMA-Factory微调训练该框架功能,标注-微调-导出-合并-部署,一整条流程都有,而且训练时消耗的gpu算力也会小一些一,安装(推荐在linux中训练,win可以用wsl+docker)gitclonehttps://github.com/hiyouga/LLaMA-Factory.gitcdLLaMA-Factory#根据cuda版本选择安装pytoch版本pip3installtor
- llama-factory微调
AI Echoes
深度学习人工智能机器学习deepseek
大模型微调实操--llama-factoryllama-factory环境安装前置准备英伟达显卡驱动更新地址下载NVIDIA官方驱动|NVIDIAcuda下载安装地址CUDAToolkit12.2Downloads|NVIDIADeveloperpytorch下载安装地址PreviousPyTorchVersions|PyTorchllama-factory项目和文档地址https://githu
- 部署微调框架LLaMA-Factory
高原魔女
llama
LLaMAFactory1.我们在ChatGLM3的github官方页面上能看到对LLaMA-Factory的推荐2.LLaMAFactorygithub链接hiyouga/LLaMA-Factory:UnifyEfficientFine-Tuningof100+LLMs(github.com)步骤一:安装LLaMAFactory进入DSW开发环境。登录PAI控制台。在页面左上方,选择DSW实例所
- ChatGPT智能聊天机器人实现
云端源想
chatgpt机器人
以下是一个从零实现类ChatGPT智能聊天机器人的完整开发指南,包含技术选型、核心代码逻辑和推荐学习资源:—云端平台整理一、技术架构与工具核心模型基座模型:HuggingFaceTransformers库(如GPT-2/GPT-3.5TurboAPI/LLaMA2)轻量化方案:微软DeepSpeed或MetaFairScale(降低显存占用)训练框架PyTorchLightning+Acceler
- AI大模型学习路线:从入门到精通的完整指南【2025最新】
AI大模型-大飞
人工智能学习大模型LLMAI程序员大模型学习
引言近年来,以GPT、BERT、LLaMA等为代表的AI大模型彻底改变了人工智能领域的技术格局。它们不仅在自然语言处理(NLP)任务中表现卓越,还在计算机视觉、多模态交互等领域展现出巨大潜力。本文旨在为开发者、研究者和技术爱好者提供一条清晰的学习路径,帮助读者逐步掌握大模型的核心技术并实现实际应用。一、基础阶段:构建知识体系数学与理论基础线性代数:矩阵运算、特征值与奇异值分解是大模型参数优化的基础
- 主流开源大模型能力对比矩阵
时光旅人01号
人工智能开源python深度学习pytorch
模型名称核心优势主要局限Llama2/3✅多语言生态完善✅Rotary位置编码✅GQA推理加速⚠️数据时效性差⚠️隐私保护不足Qwen✅千亿参数规模✅中文语境优化✅复杂文本生成⚠️需高性能硬件⚠️领域知识需二次训练ChatGLM-3✅多轮对话支持✅中英双语流畅✅对话记忆优秀⚠️计算资源消耗大⚠️长文本易发散DeepSeek✅代码注释生成✅技术文档规范✅全流程方案生成⚠️逻辑错误较多⚠️数据更新延迟
- LLaMA-Factory 训练数据默认使用 instruction、input、output 三个 key
背太阳的牧羊人
模型微调llama人工智能大模型微调
在LLaMA-Factory进行SFT(Directivesupervisionfine-tuning指令监督微调)时,训练数据的格式非常重要,因为大模型依赖标准化的数据结构来学习指令-响应模式。identity.json文件的数据采用了“instruction”、“input”、“output”这三个key,它们的作用如下:Key作用示例“instruction”代表用户给AI的指令(问题或任务
- linux(ubuntu)中Conda、CUDA安装Xinference报错ERROR: Failed to build (llama-cpp-python)
小胡说技书
杂谈/设计模式/报错Data/Python/大模型linuxubuntuconda大模型pythonXinference
文章目录一、常规办法二、继续三、继续四、缺少libgomp库(最终解决)在Conda环境中安装libgomp如果符合标题情况执行的:pipinstall"xinference[all]"大概率是最终解决的情况。一、常规办法llama-cpp-python依赖CMake、Make和g++来编译,所以可能是缺少依赖或者环境配置不对。按照以下步骤排查问题并解决:1.确保Python版本符合要求llama
- 大模型火爆 2025:LLaMA、Qwen、DeepSeek 核心原理+就业秘籍,快速入门 AI 工程师
weixin_40941102
llama人工智能
1.大模型核心原理:从零开始理解AI模型这些是大型语言模型(LLMs)的核心技术,适合初学者逐步深入学习。以下是详细拆解,让小白也能掌握:LLaMA系列模型核心原理详解:什么是LLaMA?:LLaMA是一个基于人工智能的语言模型,像一个超级聪明的聊天机器人,能理解和生成人类语言。它由Meta公司开发,类似ChatGPT,但更开源、灵活。核心原理:Transformer架构:想象一个工厂流水线,LL
- LLM之Colossal-LLaMA-2:源码解读(init_tokenizer.py文件)实现基于源词表的扩展、(init_model.py文件)实现过计算均值扩展模型、(prepare_pretr
一个处女座的程序猿
CaseCodeNLP/LLMs精选(人工智能)-中级ColossalLLaMA-2自然语言处理
LLM之Colossal-LLaMA-2:源码解读(init_tokenizer.py文件)实现基于jsonl文件中读取新词列表(新中文词汇)→for循环去重实现词表的扩展(中文标记的新词汇)→保存新的分词模型、(init_model.py文件)实现过计算均值来扩展模型的嵌入层以适应新的词汇表,然后保存扩展后的模型、(prepare_pretrain_dataset.py文件)将原始数据集进行处理
- LLMs之Colossal-LLaMA-2:源码解读(train.py文件)基于给定数据集实现持续预训练LLaMA-2—解析命令行参数→初始化配置(分布式训练环境colossalai+训练日志+加速插
一个处女座的程序猿
NLP/LLMs精选(人工智能)-中级Colossal-AILLaMA-2大语言模型自然语言处理
LLMs之Colossal-LLaMA-2:源码解读(train.py文件)基于给定数据集实现持续预训练LLaMA-2—解析命令行参数→初始化配置(分布式训练环境colossalai+训练日志+加速插件)→数据预处理(初始化分词器+数据处理器+数据加载器)→模型训练(初始化模型/优化器/学习率调度器/梯度检查点/Flash-Attention/设置数据类型/是否加载预训练模型/从上一次训练点继续训
- 1llama源码学习·model.py[3]ROPE旋转位置编码(1)原理
小杜不吃糖
学习
零:(导学)Transformer位置编码(1)为什么需要位置编码位置编码描述序列中实体的位置信息,为每个位置分配唯一的表示。Transformer使用智能位置编码方案,其中每个位置/索引都映射到一个向量。因此,位置编码层的输出是一个矩阵,其中矩阵的每一行表示序列的编码对象与其位置信息的总和(2)Transformer中的位置编码假设有一个长度为LLL的输入序列,并要求位置kkk为该序列中的对象,
- llama源码学习·model.py[1]RMSNorm归一化
小杜不吃糖
llamapython
一、model.py中的RMSNorm源码classRMSNorm(torch.nn.Module):def__init__(self,dim:int,eps:float=1e-6):super().__init__()self.eps=epsself.weight=nn.Parameter(torch.ones(dim))def_norm(self,x):returnx*torch.rsqrt(
- 2025年开源大模型全景:语言、多模态与开发工具的前沿探索
软件职业规划
开源
语言类开源大模型1.Llama系列开发者:Meta发布时间:2024年7月参数量:8B、70B、405B特点:Llama系列模型以其强大的多语言支持和广泛的自然语言处理能力而闻名。它支持文本生成、问答、翻译等多种任务,尤其在处理长篇文本时表现出色,支持高达128K的上下文长度。Meta与超过25个合作伙伴共同推出该系列模型,包括亚马逊云科技、Databricks和英伟达等,推动了开源大模型在工业界
- 使用 Ollama 对 LLaMA-2 模型进行微调的详细指南
软件职业规划
llama
1.环境准备在开始微调之前,需要确保硬件和软件环境满足要求。合适的环境配置可以显著提高微调效率,并减少潜在的错误。1.1硬件要求大语言模型的微调需要强大的计算能力,尤其是GPU资源。以下是推荐的硬件配置:GPU:建议使用至少NVIDIARTX3090或更高配置的GPU。如果条件允许,使用多卡GPU(如RTX4090或A100)可以显著加快训练速度。对于更大的模型(如LLaMA-213B或33B),
- DeepSeek创始人专访:中国的AI不可能永远跟随,需要有人站到技术的前沿
AIBigModel
人工智能
来源:暗涌Waves,整理:FounderPark因为V3版本开源模型的发布,DeepSeek又火了一把,而且这一次,是外网刷屏。训练成本估计只有Llama3.1405B模型的11分之一,后者的效果还不如它。在多项测评上,DeepSeekV3达到了开源SOTA,超越Llama3.1405B,能和GPT-4o、Claude3.5Sonnet等TOP模型正面掰掰手腕——而其价格比Claude3.5Ha
- Gemma 3 发布:最强单 GPU/TPU 可运行模型,性能超 Llama-405B!
新加坡内哥谈技术
人工智能自然语言处理语言模型深度学习copilotllama
每周跟踪AI热点新闻动向和震撼发展想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行!订阅:https://rengongzhineng.io/GoogleDeepMind再次掀起AI界的狂潮,正式推出Gemma3——一款轻量级但性
- 大语言模型微调和大语言模型应用的区别?
AI Echoes
人工智能深度学习机器学习
大语言模型微调和大语言模型应用的区别?1.定义与目标微调(Fine-tuning)目标:调整预训练模型(如GPT、LLaMA、PaLM)的参数,使其适应特定任务或领域。核心:通过额外的训练(使用特定数据集)优化模型的性能,提升其在特定场景下的效果。例如:将通用模型微调为法律咨询、医疗诊断或金融分析的专业模型。应用(Application)目标:直接使用预训练或微调后的模型解决实际问题,无需修改模型
- LLM推理和优化(1):基本概念介绍
AndrewHZ
AI算法工程师面试指北算法LLM语言模型推理优化KVCacheDeepSeek注意力机制
一、LLM推理的核心过程:自回归生成LLM(如DeepSeek、ChatGPT、LLaMA系列等)的推理本质是自回归生成:从初始输入(如[CLS]或用户prompt)开始,逐token预测下一个词,直到生成结束符(如[EOS])。其核心分为两个阶段:1.Initialization阶段(初始化)目标:准备第一个token的生成条件。关键步骤:输入编码:将初始prompt转换为token序列(如[C
- 第二十八个问题-Dify、RAG-Flow、FastGPT 核心特点对比
释迦呼呼
AI一千问架构深度学习人工智能机器学习自然语言处理
Dify、RAG-Flow、FastGPT核心特点对比以下基于搜索结果,从功能定位、技术架构、适用场景等维度总结三者的核心特点:1.Dify定位:开源的LLM应用开发平台,强调低代码与快速构建生成式AI应用。核心特点:多模型支持:无缝集成数百种专有/开源大模型(如GPT、Llama3、Mistral),支持通过API或本地部署调用18。流程编排能力:提供Chatflow(对话类应用)和Workfl
- 在M4 Mac Mini集群上运行DeepSeek V3 671B
强化学习曾小健
Deepseek原理与使用macos
在M4MacMini集群上运行DeepSeekV3671B原创咖农小黄幻想发生器2024年12月30日10:50天津我们刚刚在苹果硅芯片上运行了最大的开源模型。直接来看在8台M4Pro64GBMacMini集群(总内存512GB)上运行DeepSeekv3(671B)的结果:模型首个Token时间(秒)每秒Token数DeepSeekV3671B(4位)2.915.37Llama3.1405B(4
- 如何增强机器学习基础,提升大模型面试通过概率
weixin_40941102
机器学习面试人工智能
我的好朋友没有通过面试所以我给我的好朋友准备了这一篇学习路线随着大模型(如Transformer、GPT-4、LLaMA等)在自然语言处理(NLP)、计算机视觉(CV)和多模态任务中的广泛应用,AI行业的招聘竞争愈发激烈。面试官不仅要求候选人熟练使用深度学习框架(如PyTorch、TensorFlow),还希望他们具备扎实的机器学习理论基础、算法实现能力和实际问题解决经验。本文将从机器学习基础入手
- DeepSeek发展背景和前景
爱吃苹果的日记本
人工智能
1.成立背景:它的背景是由杭州深度求索人工智能基础技术研究有限公司开发,该公司成立于2023年7月17日,由量化资管巨头幻方量化创立。幻方量化在AI量化对冲基金领域具有深厚的技术积累和资金支持,这为DeepSeek的研发奠定了坚实的基础。2.技术演进:2024年1月:发布首个大模型DeepSeekLLM,包含670亿参数,在2万亿token的数据集上训练,性能超越Llama270BBase。202
- 8.3 GPTQ量化技术:4倍压缩大模型显存,精度零损失!
少林码僧
掌握先机!从0起步实战AI大模型微调打造核心竞争力语言模型人工智能gpt
GPTQ量化技术:4倍压缩大模型显存,精度零损失!8.2GPTQ:专为GPT设计的模型量化算法一、模型量化技术背景在讨论GPTQ之前,我们需要先理解大模型部署面临的显存困境。以LLaMA-7B模型为例:FP32精度显存占用:28GBFP16精度显存占用:14GBINT8量化后显存占用:7GBINT4量化后显存占用:3.5GB
- llama.cpp 安装与量化(mac电脑)
初七i
llamamacosllama.cpp量化ai
llama.cpp安装与量化(mac电脑)1.创建并切换至虚拟环境2.安装llama.cpp3.安装依赖4.转换模型5.创建build目录6.生成构建文件7.编译项目8.运行量化命令9.测试量化后的模型1.创建并切换至虚拟环境condacreate-nllamacpppython=3.10-ycondaactivatellamacpp2.安装llama.cppgitclonehttps://git
- AI 问答系统实战:用 Python + Flask + LLM 打造你的智能对话机器人!
Leaton Lee
人工智能pythonflask
开篇互动:你是否想拥属于自己的AI问答机器人?“你是否想过拥有一个可以随时为你解答问题、提供建议的AI助手?”随着大语言模型(LLM)的快速发展,打造一个智能问答系统已经成为可能!本文将手把手教你如何利用Python和Flask快速搭建一个属于自己的AI问答系统,并集成强大的语言模型(如OpenAI的GPT-3.5或HuggingFace的LLaMA)。无论是技术小白还是有一定经验的开发者,都能轻
- 如何用ruby来写hadoop的mapreduce并生成jar包
wudixiaotie
mapreduce
ruby来写hadoop的mapreduce,我用的方法是rubydoop。怎么配置环境呢:
1.安装rvm:
不说了 网上有
2.安装ruby:
由于我以前是做ruby的,所以习惯性的先安装了ruby,起码调试起来比jruby快多了。
3.安装jruby:
rvm install jruby然后等待安
- java编程思想 -- 访问控制权限
百合不是茶
java访问控制权限单例模式
访问权限是java中一个比较中要的知识点,它规定者什么方法可以访问,什么不可以访问
一:包访问权限;
自定义包:
package com.wj.control;
//包
public class Demo {
//定义一个无参的方法
public void DemoPackage(){
System.out.println("调用
- [生物与医学]请审慎食用小龙虾
comsci
生物
现在的餐馆里面出售的小龙虾,有一些是在野外捕捉的,这些小龙虾身体里面可能带有某些病毒和细菌,人食用以后可能会导致一些疾病,严重的甚至会死亡.....
所以,参加聚餐的时候,最好不要点小龙虾...就吃养殖的猪肉,牛肉,羊肉和鱼,等动物蛋白质
- org.apache.jasper.JasperException: Unable to compile class for JSP:
商人shang
maven2.2jdk1.8
环境: jdk1.8 maven tomcat7-maven-plugin 2.0
原因: tomcat7-maven-plugin 2.0 不知吃 jdk 1.8,换成 tomcat7-maven-plugin 2.2就行,即
<plugin>
- 你的垃圾你处理掉了吗?GC
oloz
GC
前序:本人菜鸟,此文研究学习来自网络,各位牛牛多指教
1.垃圾收集算法的核心思想
Java语言建立了垃圾收集机制,用以跟踪正在使用的对象和发现并回收不再使用(引用)的对象。该机制可以有效防范动态内存分配中可能发生的两个危险:因内存垃圾过多而引发的内存耗尽,以及不恰当的内存释放所造成的内存非法引用。
垃圾收集算法的核心思想是:对虚拟机可用内存空间,即堆空间中的对象进行识别
- shiro 和 SESSSION
杨白白
shiro
shiro 在web项目里默认使用的是web容器提供的session,也就是说shiro使用的session是web容器产生的,并不是自己产生的,在用于非web环境时可用其他来源代替。在web工程启动的时候它就和容器绑定在了一起,这是通过web.xml里面的shiroFilter实现的。通过session.getSession()方法会在浏览器cokkice产生JESSIONID,当关闭浏览器,此
- 移动互联网终端 淘宝客如何实现盈利
小桔子
移動客戶端淘客淘寶App
2012年淘宝联盟平台为站长和淘宝客带来的分成收入突破30亿元,同比增长100%。而来自移动端的分成达1亿元,其中美丽说、蘑菇街、果库、口袋购物等App运营商分成近5000万元。 可以看出,虽然目前阶段PC端对于淘客而言仍旧是盈利的大头,但移动端已经呈现出爆发之势。而且这个势头将随着智能终端(手机,平板)的加速普及而更加迅猛
- wordpress小工具制作
aichenglong
wordpress小工具
wordpress 使用侧边栏的小工具,很方便调整页面结构
小工具的制作过程
1 在自己的主题文件中新建一个文件夹(如widget),在文件夹中创建一个php(AWP_posts-category.php)
小工具是一个类,想侧边栏一样,还得使用代码注册,他才可以再后台使用,基本的代码一层不变
<?php
class AWP_Post_Category extends WP_Wi
- JS微信分享
AILIKES
js
// 所有功能必须包含在 WeixinApi.ready 中进行
WeixinApi.ready(function(Api) {
// 微信分享的数据
var wxData = {
&nb
- 封装探讨
百合不是茶
JAVA面向对象 封装
//封装 属性 方法 将某些东西包装在一起,通过创建对象或使用静态的方法来调用,称为封装;封装其实就是有选择性地公开或隐藏某些信息,它解决了数据的安全性问题,增加代码的可读性和可维护性
在 Aname类中申明三个属性,将其封装在一个类中:通过对象来调用
例如 1:
//属性 将其设为私有
姓名 name 可以公开
- jquery radio/checkbox change事件不能触发的问题
bijian1013
JavaScriptjquery
我想让radio来控制当前我选择的是机动车还是特种车,如下所示:
<html>
<head>
<script src="http://ajax.googleapis.com/ajax/libs/jquery/1.7.1/jquery.min.js" type="text/javascript"><
- AngularJS中安全性措施
bijian1013
JavaScriptAngularJS安全性XSRFJSON漏洞
在使用web应用中,安全性是应该首要考虑的一个问题。AngularJS提供了一些辅助机制,用来防护来自两个常见攻击方向的网络攻击。
一.JSON漏洞
当使用一个GET请求获取JSON数组信息的时候(尤其是当这一信息非常敏感,
- [Maven学习笔记九]Maven发布web项目
bit1129
maven
基于Maven的web项目的标准项目结构
user-project
user-core
user-service
user-web
src
- 【Hive七】Hive用户自定义聚合函数(UDAF)
bit1129
hive
用户自定义聚合函数,用户提供的多个入参通过聚合计算(求和、求最大值、求最小值)得到一个聚合计算结果的函数。
问题:UDF也可以提供输入多个参数然后输出一个结果的运算,比如加法运算add(3,5),add这个UDF需要实现UDF的evaluate方法,那么UDF和UDAF的实质分别究竟是什么?
Double evaluate(Double a, Double b)
- 通过 nginx-lua 给 Nginx 增加 OAuth 支持
ronin47
前言:我们使用Nginx的Lua中间件建立了OAuth2认证和授权层。如果你也有此打算,阅读下面的文档,实现自动化并获得收益。SeatGeek 在过去几年中取得了发展,我们已经积累了不少针对各种任务的不同管理接口。我们通常为新的展示需求创建新模块,比如我们自己的博客、图表等。我们还定期开发内部工具来处理诸如部署、可视化操作及事件处理等事务。在处理这些事务中,我们使用了几个不同的接口来认证:
&n
- 利用tomcat-redis-session-manager做session同步时自定义类对象属性保存不上的解决方法
bsr1983
session
在利用tomcat-redis-session-manager做session同步时,遇到了在session保存一个自定义对象时,修改该对象中的某个属性,session未进行序列化,属性没有被存储到redis中。 在 tomcat-redis-session-manager的github上有如下说明: Session Change Tracking
As noted in the &qu
- 《代码大全》表驱动法-Table Driven Approach-1
bylijinnan
java算法
关于Table Driven Approach的一篇非常好的文章:
http://www.codeproject.com/Articles/42732/Table-driven-Approach
package com.ljn.base;
import java.util.Random;
public class TableDriven {
public
- Sybase封锁原理
chicony
Sybase
昨天在操作Sybase IQ12.7时意外操作造成了数据库表锁定,不能删除被锁定表数据也不能往其中写入数据。由于着急往该表抽入数据,因此立马着手解决该表的解锁问题。 无奈此前没有接触过Sybase IQ12.7这套数据库产品,加之当时已属于下班时间无法求助于支持人员支持,因此只有借助搜索引擎强大的
- java异常处理机制
CrazyMizzz
java
java异常关键字有以下几个,分别为 try catch final throw throws
他们的定义分别为
try: Opening exception-handling statement.
catch: Captures the exception.
finally: Runs its code before terminating
- hive 数据插入DML语法汇总
daizj
hiveDML数据插入
Hive的数据插入DML语法汇总1、Loading files into tables语法:1) LOAD DATA [LOCAL] INPATH 'filepath' [OVERWRITE] INTO TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 ...)]解释:1)、上面命令执行环境为hive客户端环境下: hive>l
- 工厂设计模式
dcj3sjt126com
设计模式
使用设计模式是促进最佳实践和良好设计的好办法。设计模式可以提供针对常见的编程问题的灵活的解决方案。 工厂模式
工厂模式(Factory)允许你在代码执行时实例化对象。它之所以被称为工厂模式是因为它负责“生产”对象。工厂方法的参数是你要生成的对象对应的类名称。
Example #1 调用工厂方法(带参数)
<?phpclass Example{
- mysql字符串查找函数
dcj3sjt126com
mysql
FIND_IN_SET(str,strlist)
假如字符串str 在由N 子链组成的字符串列表strlist 中,则返回值的范围在1到 N 之间。一个字符串列表就是一个由一些被‘,’符号分开的自链组成的字符串。如果第一个参数是一个常数字符串,而第二个是type SET列,则 FIND_IN_SET() 函数被优化,使用比特计算。如果str不在strlist 或st
- jvm内存管理
easterfly
jvm
一、JVM堆内存的划分
分为年轻代和年老代。年轻代又分为三部分:一个eden,两个survivor。
工作过程是这样的:e区空间满了后,执行minor gc,存活下来的对象放入s0, 对s0仍会进行minor gc,存活下来的的对象放入s1中,对s1同样执行minor gc,依旧存活的对象就放入年老代中;
年老代满了之后会执行major gc,这个是stop the word模式,执行
- CentOS-6.3安装配置JDK-8
gengzg
centos
JAVA_HOME=/usr/java/jdk1.8.0_45
JRE_HOME=/usr/java/jdk1.8.0_45/jre
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
export JAVA_HOME
- 【转】关于web路径的获取方法
huangyc1210
Web路径
假定你的web application 名称为news,你在浏览器中输入请求路径: http://localhost:8080/news/main/list.jsp 则执行下面向行代码后打印出如下结果: 1、 System.out.println(request.getContextPath()); //可返回站点的根路径。也就是项
- php里获取第一个中文首字母并排序
远去的渡口
数据结构PHP
很久没来更新博客了,还是觉得工作需要多总结的好。今天来更新一个自己认为比较有成就的问题吧。 最近在做储值结算,需求里结算首页需要按门店的首字母A-Z排序。我的数据结构原本是这样的:
Array
(
[0] => Array
(
[sid] => 2885842
[recetcstoredpay] =&g
- java内部类
hm4123660
java内部类匿名内部类成员内部类方法内部类
在Java中,可以将一个类定义在另一个类里面或者一个方法里面,这样的类称为内部类。内部类仍然是一个独立的类,在编译之后内部类会被编译成独立的.class文件,但是前面冠以外部类的类名和$符号。内部类可以间接解决多继承问题,可以使用内部类继承一个类,外部类继承一个类,实现多继承。
&nb
- Caused by: java.lang.IncompatibleClassChangeError: class org.hibernate.cfg.Exten
zhb8015
maven pom.xml关于hibernate的配置和异常信息如下,查了好多资料,问题还是没有解决。只知道是包冲突,就是不知道是哪个包....遇到这个问题的分享下是怎么解决的。。
maven pom:
<dependency>
<groupId>org.hibernate</groupId>
<ar
- Spark 性能相关参数配置详解-任务调度篇
Stark_Summer
sparkcachecpu任务调度yarn
随着Spark的逐渐成熟完善, 越来越多的可配置参数被添加到Spark中来, 本文试图通过阐述这其中部分参数的工作原理和配置思路, 和大家一起探讨一下如何根据实际场合对Spark进行配置优化。
由于篇幅较长,所以在这里分篇组织,如果要看最新完整的网页版内容,可以戳这里:http://spark-config.readthedocs.org/,主要是便
- css3滤镜
wangkeheng
htmlcss
经常看到一些网站的底部有一些灰色的图标,鼠标移入的时候会变亮,开始以为是js操作src或者bg呢,搜索了一下,发现了一个更好的方法:通过css3的滤镜方法。
html代码:
<a href='' class='icon'><img src='utv.jpg' /></a>
css代码:
.icon{-webkit-filter: graysc