- LLM 词汇表
落难Coder
LLMsNLP大语言模型大模型llama人工智能
Contextwindow“上下文窗口”是指语言模型在生成新文本时能够回溯和参考的文本量。这不同于语言模型训练时所使用的大量数据集,而是代表了模型的“工作记忆”。较大的上下文窗口可以让模型理解和响应更复杂和更长的提示,而较小的上下文窗口可能会限制模型处理较长提示或在长时间对话中保持连贯性的能力。Fine-tuning微调是使用额外的数据进一步训练预训练语言模型的过程。这使得模型开始表示和模仿微调数
- 【有啥问啥】刷爆各大榜单的Reflection 70B模型背后的错误自我纠正(Reflection-Tuning)技术解析:一种革新AI模型的方法
Chauvin912
大模型行业调研人工智能算法
刷爆各大榜单的Reflection70B模型背后的错误自我纠正(Reflection-Tuning)技术解析:一种革新AI模型的方法在快速发展的AI领域,尤其是大型语言模型(LLM)的竞争中,错误自我纠正技术(Reflection-Tuning)正逐步成为提升模型性能的关键突破。该技术通过赋予模型自我检测和纠正错误的能力,显著提高了输出的准确性和可靠性。本文将深入解析Reflection-Tunn
- 大模型多机多卡脚本实例 - 增量预训练 -accelerate和deepspeed命令多机多卡训练有什么不同
AI生成曾小健
大模型/增量预训练CPT深度学习python机器学习
第一步,同步权重ls-l/data/xxx/gpu008/MoeRemake/train/etuning/LLaMA-Factory2/models/xxx-Base-10B-200k-Llama第二步,同步环境:./scp_batch.sh"/data/xxx/miniconda3/envs/etuning4/""/data/vayu/miniconda3/envs/etuning4/"gpu0
- 超越传统:Reflection 70B如何革新AI语言处理
黑金IT
人工智能AI编程
Reflection70B:AI语言模型的新里程碑AI领域迎来了革命性的变革,HyperWrite公司推出的开源AI大模型Reflection70B,以其卓越的性能在多个基准测试中超越了GPT-4o和Llama3.1。这款基于Meta的Llama3.170BInstruct构建的模型,采用了先进的“Reflection-Tuning”技术,能够在最终确定回答前检测并纠正自身的错误,显著提高了输出的
- mysql5.7 myisam 优化_MySQL5.7优化配置参数
weixin_39866974
mysql5.7myisam优化
#Otherdefaulttuningvalues#MySQLServerInstanceConfigurationFile#----------------------------------------------------------------------#GeneratedbytheMySQLServerInstanceConfigurationWizard###Installatio
- 大模型推理框架 RTP-LLM 架构解析
阿里技术
架构LLM推理阿里巴巴RPT
RTP-LLM是阿里巴巴智能引擎团队推出的大模型推理框架,支持了包括淘宝、天猫、闲鱼、菜鸟、高德、饿了么、AE、Lazada等多个业务的大模型推理场景。RTP-LLM与当前广泛使用的多种主流模型兼容,使用高性能的CUDAkernel,包括PagedAttention、FlashAttention、FlashDecoding等,支持多模态、LoRA、P-Tuning、以及WeightOnly动态量化
- LLM系列(3):探索大模型RLHF优化之道:DeepSpeed-Chat超快速入门,对齐训练精度提升一步到位
汀、人工智能
LLM工业级落地实践人工智能promptLLM自然语言处理大模型RLHFDeepSpeed
LLM系列(3):探索大模型RLHF优化之道:DeepSpeed-Chat超快速入门,对齐训练精度提升一步到位随着ChatGPT的惊艳表现,各类大模型产品如雨后春笋丛出不穷。作为有一定算法能力的同学一定会想是否可以自己在有限的物理条件下去定制化自己的大模型。学术界对此也进行了一定的研究,如PromptTuning的技术等(不调试原始大模型,只调试相关的Prompt)。最近微软做了一个Deepspe
- 百篇论文博文导航AI工程之路:FT、KG、RAG与Agent技术全方位探索
汀、人工智能
AIAgent人工智能深度学习机器学习自然语言处理大模型AgentRAG
百篇论文博文导航AI工程之路:FT、KG、RAG与Agent技术全方位探索1.FTScalingDowntoScaleUp:AGuidetoParameter-EfficientFine-Tuning:https://arxiv.org/abs/2303.15647TowardsaUnifiedViewofParameter-EfficientTransferLearning:https://ar
- 【大模型】Agent基础知识
idiotyi
大模型人工智能自然语言处理
目录1.基本框架2.常见推理模式2.1ReAct:SynergizingReasoningandActinginLanguageModels2.2Reflection2.3LATS:LanguageAgentsTreeSearch3.微调3.1全模型微调(FullModelFine-Tuning)3.2冻结部分层微调(Layer-wiseFine-Tuning)3.3适配器(Adapters)3.
- 深度解析:大模型微调的原理、应用与实践
longfei.li
人工智能神经网络
引言最近在公司落地AI产品的过程中,与团队小伙伴深入探讨和测试了大模型微调,同时也跟多个业内专家进行了交流和学习。相信很多人在实际落地大模型应用的时候都会有个疑问:到底要不要做微调模型?我的结论是在实际落地的过程中绝大多数场景是不需要做的,所以今天主要跟大家分享一下什么是Fine-tuning、Fine-tuning的原理以及Fine-tuning的应用,以帮助大家在工作中更好的理解大模型微调。什
- CLIP-Adapter: Better Vision-Language Models with Feature Adapters
Tsukinousag
对比语言图像预训练(CLIP)虽然prompt-tuning用于textualinputs,但是建议CLIPAdapter在视觉或语言分支上使用功能适配器进行fine-tuneCLIPAdapter采用了一个额外的瓶颈层来学习新的特征,并将剩余的特征与原始的预训练特征进行混合。为了更好地适应vision语言模型,使用功能适配器,而不是快速调整1.ClassifierWeightGeneration
- MasaCtrl:Tuning-free mutual self-attention control for consistent image synthesis and editing
Kun Li
图像视频生成大模型stablediffusion
https://github.com/TencentARC/MasaCtrl/issues/13https://github.com/TencentARC/MasaCtrl/issues/13QuestionaboutMask·Issue#31·TencentARC/MasaCtrl·GitHub
- Code Llama: Open Foundation Models for Code论文阅读
yang_daxia
大模型llamacodellama
整体介绍CodeLlama发布了3款模型,包括基础模型、Python专有模型和指令跟随模型,参数量分别为7B、13B、34B和70B。这些模型在长达16ktokens的序列上训练。都是基于Llama2。作者针对infilling(FIM)、长上下文、指令专门做了微调long-contextfine-tuning(LCFT).codellama细节CodeLlama模型家族初始化:所有CodeLla
- 大模型18:微调大模型方法PEFT(LoRA等) — 训练 “ChatGLM2“ 项目
bluewelkin
大模型
微调大模型的方法之一是PEFT(Parameter-EfficientFine-Tuning),其中包括LoRA(Low-RankAdaptation)等技术。PEFT方法能够在不显著增加计算资源消耗的情况下,微调大模型,从而适应特定任务。这种方法特别适用于像“ChatGLM2”这样的预训练大模型。什么是PEFT(Parameter-EfficientFine-Tuning)?PEFT是一种优化微
- 大模型19:微调大模型方法
bluewelkin
大模型
有监督微调(SFT)、奖励模型(RM)训练,以及基于人类反馈的强化学习(RLHF)训练1.有监督微调(SFT-SupervisedFine-Tuning)数据处理数据收集:首先,需要收集大量的对话数据。这些数据通常包括人工标注的问答对,或者从已有的高质量对话系统中获取的数据集。数据预处理:对收集的数据进行清洗、标注和格式化。预处理包括移除噪音数据、分词、生成模型输入输出格式等。模型训练模型初始化:
- 大模型微调方法总结:LoRA、Adapter、Prefix-tuning、P-tuning、Prompt-tuning
百度_开发者中心
prompt人工智能大模型
随着深度学习技术的不断发展,大型预训练模型已成为许多任务的重要工具。然而,微调(finetuning)这些大模型以适应特定任务是一个复杂且计算密集型的过程。本文将重点介绍五种不同的微调方法:LoRA、Adapter、Prefix-tuning、P-tuning和Prompt-tuning,并对它们进行总结。LoRA(LearnedRepresentationsforFinetuning)LoRA是
- Prompt-Tuning:大模型微调技术
百度_开发者中心
prompt自然语言处理大模型
随着深度学习技术的不断发展,大模型(如GPT、BERT等)在各种自然语言处理(NLP)任务中取得了显著的成功。然而,训练和部署大模型需要大量的计算资源和时间,这限制了其在一些资源有限场景中的应用。为了解决这个问题,研究人员提出了各种大模型微调技术,以减少模型的大小和计算复杂度,同时保持模型的性能。本文将重点介绍一些常见的大模型微调技术,包括Adapter-Tuning、Prefix-Tuning、
- 大模型微调技术(Adapter-Tuning、Prefix-Tuning、Prompt-Tuning(P-Tuning)、P-Tuning v2、LoRA)_adapter微调 p tuning
Cc不爱吃洋葱
prompt
2022年11月30日,ChatGPT发布至今,国内外不断涌现出了不少大模型,呈现“百模大战”的景象,比如ChatGLM-6B、LLAMA、Alpaca等模型及在此模型基础上进一步开发的特定领域的大模型。今年3月15日,GPT-4发布后,也出现了一些多模态的大模型,比如百度的文心一言、讯飞星火认知大模型等等。要想训练一个针对特定领域的大模型,如果采用全量参数微调(FullParameterFutu
- Rocksdb Tuning
MOONICK
数据库
Rocksdb配置选项尤其繁多,想要获得真正的高性能,需要进行详细的调优,这是项复杂的工作,需要在实践中积累经验:https://www.jianshu.com/p/8e0018b6a8b6https://cloud.tencent.com/developer/article/2329992调优RocksDB通常就是在三个amplification之间做取舍:Writeamplification-
- 大模型应用中什么是SFT(监督微调)?
Chauvin912
大模型语言模型深度学习算法
大模型应用中什么是SFT(监督微调)?一、SFT的基本概念监督微调(SupervisedFine-Tuning,SFT)是对已经预训练的模型进行特定任务的训练,以提高其在该任务上的表现。预训练模型通常在大量通用数据上进行训练,学到广泛的语言知识和特征。在SFT过程中,利用特定任务的数据,对模型进行进一步调整,使其更适合该任务。二、SFT的原理SFT的过程可以分为以下几个步骤:预训练模型:在大规模通
- AI推介-大语言模型LLMs论文速览(arXiv方向):2024.02.20-2024.02.25
小小帅AIGC
LLMs论文时报人工智能语言模型深度学习LLM大语言模型论文推送
论文目录~1.Zero-shotcross-lingualtransferininstructiontuningoflargelanguagemodel2.ScalingEfficientLLMs3.LLM-DA:DataAugmentationviaLargeLanguageModelsforFew-ShotNamedEntityRecognition4.WhoseLLMisitAnyway?L
- AI推介-大语言模型LLMs论文速览(arXiv方向):2024.02.25-2024.03.01
小小帅AIGC
LLMs论文时报人工智能语言模型自然语言处理LLM大语言模型深度学习论文推送
论文目录~1.ArithmeticControlofLLMsforDiverseUserPreferences:DirectionalPreferenceAlignmentwithMulti-ObjectiveRewards2.KeepingLLMsAlignedAfterFine-tuning:TheCrucialRoleofPromptTemplates3.Meta-TaskPrompting
- 大模型训练——PEFT与LORA介绍
MarkHD
人工智能深度学习机器学习
大模型训练中的PEFT(Parameter-EfficientFine-Tuning)与LoRA(Low-RankAdaptation)是两种重要的技术,它们在大型预训练模型的应用中发挥着重要作用。首先,让我们来了解一下PEFT。PEFT是一种参数高效的微调技术,由Huggingface发布。这种方法的核心思想是仅微调少量(额外)模型参数,同时冻结预训练LLM的大部分参数。这样做的好处是大大降低了
- 学习笔记:使用 Amazon Bedrock 进行图像生成
AmazonBedrock全新发布在2023年的亚马逊云科技re:Invent全球云计算大会上,最令人瞩目的一项更新莫过于AmazonBedrock的全新升级。亚马逊云科技此次为其大模型托管服务引入了Fine-tuning、Agents、KnowledgeBases和Guardrails等一系列创新功能。这些功能的加入意味着客户现在能以更加高效、智能和安全的方式构建各种应用,标志着亚马逊云科技在推
- 预训练和微调在迁移学习中的作用
一条小小yu
迁移学习人工智能机器学习
在机器学习和深度学习中,"pre-training"(预训练)和"fine-tuning"(微调)是两个常见且重要的概念,它们通常在迁移学习场景中使用,以提高模型在特定任务上的性能。预训练(Pre-training)预训练是指在一个大型且通常与目标任务相关但不完全相同的数据集上训练模型的过程。这个阶段的目的是让模型学习到一些通用的特征或知识,这些特征或知识可以帮助模型在后续的特定任务上表现更好。预
- 大模型微调大杂烩知识总结
lichunericli
LLM人工智能语言模型
1.前缀微调(Prefix-Tuning)前缀微调是一种针对预训练模型的微调方法,通过在模型输入前添加特定任务相关的连续前缀表示,从而引导模型生成适应特定任务的输出。在微调过程中,只更新前缀表示的参数,而预训练模型的参数保持不变。微调方法:首先,为每个任务设计一个可学习的前缀表示。然后,将这个前缀表示与输入序列进行拼接,输入到预训练模型中。最后,通过优化前缀表示的参数,使得模型能够生成适应特定任务
- Prompt Tuning:深度解读一种新的微调范式
lichunericli
LLM人工智能语言模型prompt
阅读该博客,您将系统地掌握如下知识点:什么是预训练语言模型?什么是prompt?为什么要引入prompt?相比传统fine-tuning有什么优势?自20年底开始,prompt的发展历程,哪些经典的代表方法?面向不同种类NLP任务,prompt如何选择和设计?面向超大规模模型,如何借助prompt进行参数有效性训练?面向GPT3,什么是In-ContextLearning?什么是Chain-Of-
- ACK Timeout 相关论文
小超超爱超超
论文中提到了ACKTimeout《AReal-TimeUpdatingAlgorithmofRTS-CTSThresholdtoEnhanceEDCAMACPerformanceinIEEE802.11eWirelessLANs》Timeout论文中《RTSThresholdSelf-TuningAlgorithmBasedonDelayAnalysison802.11DCF》提到冲突时间:
- 大模型推理优化实践:KV cache 复用与投机采样
阿里技术
RTP-LLM大模型KVcache推理优化投机采样
作者:米基一、背景RTP-LLM是阿里巴巴大模型预测团队开发的大模型推理加速引擎,作为一个高性能的大模型推理解决方案,它已被广泛应用于阿里内部。该引擎与当前广泛使用的多种主流模型兼容,并通过采用高性能的CUDA算子来实现了如PagedAttention和ContinuousBatching等多项优化措施。RTP-LLM还支持包括多模态、LoRA、P-Tuning、以及WeightOnly动态量化等
- 大语言模型ChatGLM + P-Tuning微调实践
North_D
AI人工智能人工智能自然语言处理chatgptnlptransformer深度学习机器学习
大语言模型ChatGLM+P-Tuning微调实践文章目录大语言模型ChatGLM+P-Tuning微调实践LLM微调基础本次实践环境说明ChatGLM部署以及激活conda环境安装依赖禁用W&B训练数据集、测试数据集准备微调参数调整(train.sh\evaluate.sh)参数说明备查训练推理验证可能会遇到的问题及解决LLM微调基础LLM微调可以对原有预模型进行专业领域知识的训练,相关领域知识
- 基本数据类型和引用类型的初始值
3213213333332132
java基础
package com.array;
/**
* @Description 测试初始值
* @author FuJianyong
* 2015-1-22上午10:31:53
*/
public class ArrayTest {
ArrayTest at;
String str;
byte bt;
short s;
int i;
long
- 摘抄笔记--《编写高质量代码:改善Java程序的151个建议》
白糖_
高质量代码
记得3年前刚到公司,同桌同事见我无事可做就借我看《编写高质量代码:改善Java程序的151个建议》这本书,当时看了几页没上心就没研究了。到上个月在公司偶然看到,于是乎又找来看看,我的天,真是非常多的干货,对于我这种静不下心的人真是帮助莫大呀。
看完整本书,也记了不少笔记
- 【备忘】Django 常用命令及最佳实践
dongwei_6688
django
注意:本文基于 Django 1.8.2 版本
生成数据库迁移脚本(python 脚本)
python manage.py makemigrations polls
说明:polls 是你的应用名字,运行该命令时需要根据你的应用名字进行调整
查看该次迁移需要执行的 SQL 语句(只查看语句,并不应用到数据库上):
python manage.p
- 阶乘算法之一N! 末尾有多少个零
周凡杨
java算法阶乘面试效率
&n
- spring注入servlet
g21121
Spring注入
传统的配置方法是无法将bean或属性直接注入到servlet中的,配置代理servlet亦比较麻烦,这里其实有比较简单的方法,其实就是在servlet的init()方法中加入要注入的内容:
ServletContext application = getServletContext();
WebApplicationContext wac = WebApplicationContextUtil
- Jenkins 命令行操作说明文档
510888780
centos
假设Jenkins的URL为http://22.11.140.38:9080/jenkins/
基本的格式为
java
基本的格式为
java -jar jenkins-cli.jar [-s JENKINS_URL] command [options][args]
下面具体介绍各个命令的作用及基本使用方法
1. &nb
- UnicodeBlock检测中文用法
布衣凌宇
UnicodeBlock
/** * 判断输入的是汉字 */ public static boolean isChinese(char c) { Character.UnicodeBlock ub = Character.UnicodeBlock.of(c);
- java下实现调用oracle的存储过程和函数
aijuans
javaorale
1.创建表:STOCK_PRICES
2.插入测试数据:
3.建立一个返回游标:
PKG_PUB_UTILS
4.创建和存储过程:P_GET_PRICE
5.创建函数:
6.JAVA调用存储过程返回结果集
JDBCoracle10G_INVO
- Velocity Toolbox
antlove
模板toolboxvelocity
velocity.VelocityUtil
package velocity;
import org.apache.velocity.Template;
import org.apache.velocity.app.Velocity;
import org.apache.velocity.app.VelocityEngine;
import org.apache.velocity.c
- JAVA正则表达式匹配基础
百合不是茶
java正则表达式的匹配
正则表达式;提高程序的性能,简化代码,提高代码的可读性,简化对字符串的操作
正则表达式的用途;
字符串的匹配
字符串的分割
字符串的查找
字符串的替换
正则表达式的验证语法
[a] //[]表示这个字符只出现一次 ,[a] 表示a只出现一
- 是否使用EL表达式的配置
bijian1013
jspweb.xmlELEasyTemplate
今天在开发过程中发现一个细节问题,由于前端采用EasyTemplate模板方法实现数据展示,但老是不能正常显示出来。后来发现竟是EL将我的EasyTemplate的${...}解释执行了,导致我的模板不能正常展示后台数据。
网
- 精通Oracle10编程SQL(1-3)PLSQL基础
bijian1013
oracle数据库plsql
--只包含执行部分的PL/SQL块
--set serveroutput off
begin
dbms_output.put_line('Hello,everyone!');
end;
select * from emp;
--包含定义部分和执行部分的PL/SQL块
declare
v_ename varchar2(5);
begin
select
- 【Nginx三】Nginx作为反向代理服务器
bit1129
nginx
Nginx一个常用的功能是作为代理服务器。代理服务器通常完成如下的功能:
接受客户端请求
将请求转发给被代理的服务器
从被代理的服务器获得响应结果
把响应结果返回给客户端
实例
本文把Nginx配置成一个简单的代理服务器
对于静态的html和图片,直接从Nginx获取
对于动态的页面,例如JSP或者Servlet,Nginx则将请求转发给Res
- Plugin execution not covered by lifecycle configuration: org.apache.maven.plugin
blackproof
maven报错
转:http://stackoverflow.com/questions/6352208/how-to-solve-plugin-execution-not-covered-by-lifecycle-configuration-for-sprin
maven报错:
Plugin execution not covered by lifecycle configuration:
- 发布docker程序到marathon
ronin47
docker 发布应用
1 发布docker程序到marathon 1.1 搭建私有docker registry 1.1.1 安装docker regisry
docker pull docker-registry
docker run -t -p 5000:5000 docker-registry
下载docker镜像并发布到私有registry
docker pull consol/tomcat-8.0
- java-57-用两个栈实现队列&&用两个队列实现一个栈
bylijinnan
java
import java.util.ArrayList;
import java.util.List;
import java.util.Stack;
/*
* Q 57 用两个栈实现队列
*/
public class QueueImplementByTwoStacks {
private Stack<Integer> stack1;
pr
- Nginx配置性能优化
cfyme
nginx
转载地址:http://blog.csdn.net/xifeijian/article/details/20956605
大多数的Nginx安装指南告诉你如下基础知识——通过apt-get安装,修改这里或那里的几行配置,好了,你已经有了一个Web服务器了。而且,在大多数情况下,一个常规安装的nginx对你的网站来说已经能很好地工作了。然而,如果你真的想挤压出Nginx的性能,你必
- [JAVA图形图像]JAVA体系需要稳扎稳打,逐步推进图像图形处理技术
comsci
java
对图形图像进行精确处理,需要大量的数学工具,即使是从底层硬件模拟层开始设计,也离不开大量的数学工具包,因为我认为,JAVA语言体系在图形图像处理模块上面的研发工作,需要从开发一些基础的,类似实时数学函数构造器和解析器的软件包入手,而不是急于利用第三方代码工具来实现一个不严格的图形图像处理软件......
&nb
- MonkeyRunner的使用
dai_lm
androidMonkeyRunner
要使用MonkeyRunner,就要学习使用Python,哎
先抄一段官方doc里的代码
作用是启动一个程序(应该是启动程序默认的Activity),然后按MENU键,并截屏
# Imports the monkeyrunner modules used by this program
from com.android.monkeyrunner import MonkeyRun
- Hadoop-- 海量文件的分布式计算处理方案
datamachine
mapreducehadoop分布式计算
csdn的一个关于hadoop的分布式处理方案,存档。
原帖:http://blog.csdn.net/calvinxiu/article/details/1506112。
Hadoop 是Google MapReduce的一个Java实现。MapReduce是一种简化的分布式编程模式,让程序自动分布到一个由普通机器组成的超大集群上并发执行。就如同ja
- 以資料庫驗證登入
dcj3sjt126com
yii
以資料庫驗證登入
由於 Yii 內定的原始框架程式, 採用綁定在UserIdentity.php 的 demo 與 admin 帳號密碼: public function authenticate() { $users=array( &nbs
- github做webhooks:[2]php版本自动触发更新
dcj3sjt126com
githubgitwebhooks
上次已经说过了如何在github控制面板做查看url的返回信息了。这次就到了直接贴钩子代码的时候了。
工具/原料
git
github
方法/步骤
在github的setting里面的webhooks里把我们的url地址填进去。
钩子更新的代码如下: error_reportin
- Eos开发常用表达式
蕃薯耀
Eos开发Eos入门Eos开发常用表达式
Eos开发常用表达式
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
蕃薯耀 2014年8月18日 15:03:35 星期一
&
- SpringSecurity3.X--SpEL 表达式
hanqunfeng
SpringSecurity
使用 Spring 表达式语言配置访问控制,要实现这一功能的直接方式是在<http>配置元素上添加 use-expressions 属性:
<http auto-config="true" use-expressions="true">
这样就会在投票器中自动增加一个投票器:org.springframework
- Redis vs Memcache
IXHONG
redis
1. Redis中,并不是所有的数据都一直存储在内存中的,这是和Memcached相比一个最大的区别。
2. Redis不仅仅支持简单的k/v类型的数据,同时还提供list,set,hash等数据结构的存储。
3. Redis支持数据的备份,即master-slave模式的数据备份。
4. Redis支持数据的持久化,可以将内存中的数据保持在磁盘中,重启的时候可以再次加载进行使用。
Red
- Python - 装饰器使用过程中的误区解读
kvhur
JavaScriptjqueryhtml5css
大家都知道装饰器是一个很著名的设计模式,经常被用于AOP(面向切面编程)的场景,较为经典的有插入日志,性能测试,事务处理,Web权限校验, Cache等。
原文链接:http://www.gbtags.com/gb/share/5563.htm
Python语言本身提供了装饰器语法(@),典型的装饰器实现如下:
@function_wrapper
de
- 架构师之mybatis-----update 带case when 针对多种情况更新
nannan408
case when
1.前言.
如题.
2. 代码.
<update id="batchUpdate" parameterType="java.util.List">
<foreach collection="list" item="list" index=&
- Algorithm算法视频教程
栏目记者
Algorithm算法
课程:Algorithm算法视频教程
百度网盘下载地址: http://pan.baidu.com/s/1qWFjjQW 密码: 2mji
程序写的好不好,还得看算法屌不屌!Algorithm算法博大精深。
一、课程内容:
课时1、算法的基本概念 + Sequential search
课时2、Binary search
课时3、Hash table
课时4、Algor
- C语言算法之冒泡排序
qiufeihu
c算法
任意输入10个数字由小到大进行排序。
代码:
#include <stdio.h>
int main()
{
int i,j,t,a[11]; /*定义变量及数组为基本类型*/
for(i = 1;i < 11;i++){
scanf("%d",&a[i]); /*从键盘中输入10个数*/
}
for
- JSP异常处理
wyzuomumu
Webjsp
1.在可能发生异常的网页中通过指令将HTTP请求转发给另一个专门处理异常的网页中:
<%@ page errorPage="errors.jsp"%>
2.在处理异常的网页中做如下声明:
errors.jsp:
<%@ page isErrorPage="true"%>,这样设置完后就可以在网页中直接访问exc