怎么在python中利用PIL和matplotlib获取图片的像素点?相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。
首先安装 PIL
由于PIL仅支持到Python 2.7,加上年久失修,于是一群志愿者在PIL的基础上创建了兼容的版本,名字叫Pillow,支持最新Python 3.x,又加入了许多新特性,因此,我们可以直接安装使用Pillow。
所以 安装:
pipinstallpillow
获取像素点
importnumpyasnp
fromPILimportImage
img=Image.open("./b.png").convert('RGBA')
a_img=np.asarray(img)
获取的图片像素为 一个二维数组,相当于是二维左边系, x ,y 然后里面存了一个元组 值分别为 r g b a
分别计算改变了像素值之后,就需要将数据写入到图片了,这个时候就需要 matplotlib
importmatplotlib.pyplotasplt
plt.figure("beauty")#开启图层,名称为beauty
plt.imshow(a_img)#二维数组的数据
plt.axis('off')
#plt.show()
plt.savefig("./result.png")
下面给出一个完整的 demo
需要将两张图片合并计算,并输出结果:
将上面两个图片合并
fromPILimportImage
importnumpyasnp
importmatplotlib.pyplotasplt
defmodeSuperposition(basePixel,mixPixel,alpha):
basePixel=int(basePixel)
mixPixel=int(mixPixel);
res=0
ifbasePixel<=128:
res=int(mixPixel)*int(basePixel)/128;
else:
res=255-(255-mixPixel)*(255-basePixel)/128;
a=alpha/255;
ifa>1:
a=1
res=(1-a)*basePixel+a*res
t=int(res)&-256
ift==0:
returnint(res)
ifres>255:
return255
return0
defmergePoint(x,y):
p1=img1[x][y]
p2=img2[x][y]
p1[1]=modeSuperposition(p1[0],p2[0],p2[3])
p1[2]=modeSuperposition(p1[1],p2[1],p2[3])
p1[3]=modeSuperposition(p1[2],p2[2],p2[3])
imgA=Image.open('./b.png')
img1=np.array(imgA.convert('RGBA'))#打开图像并转化为数字矩
img2=np.array(Image.open("./light.png").convert('RGBA'))
i=len(img1);
j=len(img1[0]);
forkinrange(0,len(img2)):
forninrange(0,len(img2[0])):
ifk<iandn<j:
mergePoint(k,n)
#img=Image.new("RGBA",imgA.size)###创建一个5*5的图片
plt.figure("beauty")#开启图层,名称为beauty
plt.imshow(img1)#二维数组的数据
plt.axis('off')
#plt.show()
plt.savefig("./result.png")
看完上述内容,你们掌握怎么在python中利用PIL和matplotlib获取图片的像素点的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注恰卡编程网行业资讯频道,感谢各位的阅读!