题目链接:点这里!!
题意:给你n个数A[1] , A[2] .... A[n],从中选m个数 A[B[1]] , A[B[2]] ... A[B[m]] ( 1 <= B[1] < B[2] .... B[m] <= n )
使得sum abs( A[B[i]]-A[B[j]] ) when 1 <= i < j <= m. 尽可能的小。求sum的最小值。
数据范围:1<=m<=n<=100000 0<=A[i]<=100000
题解:易知,我们先给n个数排个序,然后就等价于从这个n个数选m个连续的数使得sum值最小。
我们直接一个个枚举过去就可以了(想太多)。
我们看第二组数据(已经排好序):
5 3
1 3 6 8 10
我们枚举
1 3 6 得到的答案是10。
3 6 8 得到的答案是10。
6 8 10 得到的答案是8。
取最小值为8。
但是如果直接枚举过去的话,时间复杂度得到了O(n*n),直接TLE了。
但我们看看相邻两个情况的区别
Ai,Ai+1, Ai+2,...,Ai+k-1 (1)
Ai+1,Ai+2,Ai+3...Ai+k (2)
(1)的答案为 (1-k)*Ai+(3-k)*(Ai+1)+(5-k)*(Ai+2)+...+(k-1)*(Ai+k-1) = sum1
(2)的答案为 (1-k)*(Ai+1)+(3-k)*(Ai+2)+...+(k-1)(Ai+k) = sum2
设dis[i]=A[1]+A[2]+...+A[i]
可以得出sum2 = sum1-(1-k)*Ai+(k-1)*(Ai+k) -2*(dis[i+k-1]-dis[i])
从而直接可推出下一个状态的答案。时间复杂度为O(n)
代码:
#include<cstdio> #include<cstring> #include<iostream> #include<sstream> #include<algorithm> #include<vector> #include<bitset> #include<set> #include<queue> #include<stack> #include<map> #include<cstdlib> #include<cmath> #define PI 2*asin(1.0) #define LL long long #define pb push_back #define pa pair<int,int> #define clr(a,b) memset(a,b,sizeof(a)) #define lson lr<<1,l,mid #define rson lr<<1|1,mid+1,r #define bug(x) printf("%d++++++++++++++++++++%d\n",x,x) #define key_value ch[ch[root][1]][0] const int MOD = 1000000007; const int N = 1e5+1000; const int maxn = 450; const int letter = 130; const int INF = 1e17; const double pi=acos(-1.0); const double eps=1e-8; using namespace std; inline int read() { int x=0,f=1;char ch=getchar(); while(ch<'0'||ch>'9'){if(ch=='-')f=-1;ch=getchar();} while(ch>='0'&&ch<='9'){x=x*10+ch-'0';ch=getchar();} return x*f; } int n,k; LL a[N],dis[N]; int main(){ while(scanf("%d%d",&n,&k)!=EOF){ for(int i=0;i<n;i++) scanf("%lld",a+i); sort(a,a+n); dis[0]=a[0]; for(int i=1;i<n;i++) dis[i]=dis[i-1]+a[i]; LL min1,sum=0; LL cnt=1ll*(1-k); for(int i=0;i<k;i++){ sum += a[i]*cnt; cnt+=2; } min1=sum; int l=0; cnt=1ll*(1-k); for(int i=k;i<n;i++){ sum -= cnt*a[l]; sum += (-cnt)*a[i]; sum += -2ll*(dis[i-1]-dis[l]); min1 =min(min1,sum); l++; } printf("%lld\n",min1); } return 0; }