层次聚类方法对给定的数据集进行层次的分解,直到某种条件满足为止。具体又可分为凝聚的,分裂的两种方案。
1凝聚的层次聚类是一种自底向上的策略,首先将每个对象作为一个簇,然后合并这些原子簇为越来越大的簇,直到所有的对象都在一个簇中,或者某个终结条件被满足,绝大多数层次聚类方法属于这一类,它们只是在簇间相似度的定义上有所不同。
2分裂的层次聚类与凝聚的层次聚类相反,采用自顶向下的策略,它首先将所有对象置于同一个簇中,然后逐渐细分为越来越小的簇,直到每个对象自成一簇,或者达到了某个终止条件。
凝聚的层次聚类可以简单的归纳为以下步骤:
初始样本点:s0,s1,sn...,sn
初始化:开始将每个样本点视为一个类,所有类的集合和样本点的个数相同,记为 cluster{cluster0,...clustern}
聚类条件:取所所有类别中距离最近的两个类,作为一个新的类,这里的距离可以是用户自定义的聚类距离,本方法采用的是minhash来计算不同文本直接的聚类,minhash值为通过tfidf算法获取的关键词之间的集合计算而来。
终止条件:用户可以根据聚类的个数终止也可以根据类之间的距离终止,比如类的个数超过用户自己设定的个数,或者类之间的聚类大于用户预先设定的阈值。这里类之间的聚类可以根据用户需求自己定义,可以是类中每个样本点的最近聚类、最短聚类或者是平均聚类。本方法是用的最近的聚类。
聚类步骤:计算所有类中所有类之间的聚类,取所有类中最近的两个类作为一个新类,将两个类中的样本点合并。直到满足终止条件。
算法如下:
package org.mino.exp.dbconstruct; import java.io.BufferedWriter; import java.io.File; import java.io.FileFilter; import java.io.FileWriter; import java.io.FilenameFilter; import java.io.IOException; import java.util.ArrayList; import java.util.HashMap; import java.util.Iterator; import java.util.List; import org.mino.util.FileUtil; import com.sun.net.httpserver.Filter; import com.sun.net.httpserver.HttpExchange; /** * 通过minhash方法进行聚类 * @author 丁杰 */ public class MinHashCluster { static HashMap<String, Double> map = null; /** * 任意两篇专利文献之间距离 */ private static String simHashPath = "E:\\research\\experiment_2\\tfidf_filter\\H01M\\simhash.dat"; static { map = loadSimHash(simHashPath); } public static void main(String[] args) { /** * 聚类文件绝对目录 */ String clusterFilePath = "E:\\research\\experiment_2\\tfidf_filter\\H01M\\"; /** * 孤立点目录 */ String isolatePoin = "E:\\research\\experiment_2\\tfidf_filter\\H01M\\IsolatedPoint\\"; double initThread = 0.80; //文件内容为空的剪切到孤立点目录下 // cutFileNotExist(clusterFilePath, isolatePoin); //文本到其它文本的最小值大于阈值的拷贝到孤立点目录 preIsolatePoin(simHashPath, clusterFilePath, isolatePoin, initThread); double disThreshold = 0.6;//阈值 MinHashCluster mh = new MinHashCluster(); String [] fileFilters = {"txt"}; int clusterNum = 20; //如果一篇专利文献到其它专利文献的最近的距离大于某一个阈值则将该专利文献视为孤立点 List<DataPoint> iniPoint = mh.getDatePoinFromDir(clusterFilePath, fileFilters); // System.out.println(iniPoint.size()); mh.initialCluster(iniPoint); List<Cluster> clusters = mh.startAnalysis(iniPoint, clusterNum, disThreshold); String clusterPath = clusterFilePath + File.separator + "fileClustet.dat"; writeClusterToFile(clusterPath, clusters); } /** * 剪切 * @param simHashPath * @param cutToPath * @param threshold */ @SuppressWarnings("unused") private static void preIsolatePoin(String simHashPath, String cutFromPath, String cutToPath, double threshold) { HashMap<String, Double> simMap = FileUtil.getDoubMapFromFile(simHashPath); //加载simhash文件 HashMap<String, Double> minSimMap = new HashMap<String, Double>(); Iterator<String> it = simMap.keySet().iterator(); while(it.hasNext()) { String key = it.next().trim(); String[] keys = key.split("#"); double value = simMap.get(key); double distance = 1.0 - value; // System.out.println(distance); //////////////////////////////////////////////// if(minSimMap.containsKey(keys[0])) {//如果包含 if(minSimMap.get(keys[0]) > distance) {//如果原有的距离大于distance minSimMap.put(keys[0], distance); } } else {//不包含 // System.out.println(keys[0] + " " + distance); minSimMap.put(keys[0], distance); } //////////////////////////////////////////////// if(minSimMap.containsKey(keys[1])) {//如果包含 if(minSimMap.get(keys[1]) > distance) { minSimMap.put(keys[1], distance); } } else {//不包含 minSimMap.put(keys[1], distance); } //////////////////////////////////////////////// } it = minSimMap.keySet().iterator(); int total = 0; while(it.hasNext()) { String fileName = it.next(); double value = minSimMap.get(fileName); if(value >= threshold) { total ++; // System.out.println(value); FileUtil.copyFile(cutFromPath + fileName, cutToPath + fileName); new File(cutFromPath + fileName).delete(); // System.out.println(fileName);//如果文本到专利文献的 最小距离大于阈值 则删除该文件 } } System.out.println("孤立点 : " + total); } /** * 剪切文件内容为空的文件到 isolatePoin * @param clusterFilePath * @param isolatePoin */ @SuppressWarnings("unused") private static void cutFileNotExist(String clusterFilePath, String isolatePoin) { // TODO Auto-generated method stub File file = new File(clusterFilePath); File [] files = file.listFiles(new FileFilter() { @Override public boolean accept(File pathname) { // TODO Auto-generated method stub if(pathname.getName().endsWith("txt")) { return true; } return false; }}); for(File f : files) { if(f.length() == 0) { System.out.println(f); FileUtil.copyFile(f.getAbsolutePath(), isolatePoin + File.separator + f.getName()); f.delete(); } }//end_file } /** * 加载两篇专利文献之间的距离 * @param simHashPath2 * @return */ private static HashMap<String, Double> loadSimHash(String simHashPath) { // TODO Auto-generated method stub return FileUtil.getDoubMapFromFile(simHashPath); } /** * 将聚类结果写入到文件 * @param clusterFilePath * @param clusters */ private static void writeClusterToFile(String clusterFilePath, List<Cluster> clusters) { FileWriter fw = null; BufferedWriter bw = null; try { fw = new FileWriter(clusterFilePath); bw = new BufferedWriter(fw); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } for (Cluster cl : clusters) { try { bw.write(cl.getClusterName()); bw.newLine(); bw.flush(); } catch (IOException e) { e.printStackTrace(); } List<DataPoint> tempDps = cl.getDataPoints(); for (DataPoint tempdp : tempDps) { try { bw.write(tempdp.getDataPointName().substring(tempdp.getDataPointName().lastIndexOf("\\") + 1)); bw.write("#"); bw.newLine(); bw.flush(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } // System.out.print(tempdp.getDataPointName()+"#"); }//end_for try { bw.newLine(); bw.flush(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } // System.out.println(); }//end_for } /** * @param dataPoints 数据点 * @param ClusterNum 需要聚类的个数 * @return */ public List<Cluster> startAnalysis(List<DataPoint> dataPoints, int ClusterNum, double threshold) { //最聚类结果 List<Cluster> finalClusters = new ArrayList<Cluster>(); //初始聚类结果 List<Cluster> originalClusters = initialCluster(dataPoints); finalClusters = originalClusters; while (finalClusters.size() > ClusterNum) { double min = Double.MAX_VALUE; int mergeIndexA = 0; int mergeIndexB = 0; for (int i = 0; i < finalClusters.size(); i++) { for (int j = 0; j < finalClusters.size(); j++) { if (i != j) { Cluster clusterA = finalClusters.get(i);//获取聚类1 Cluster clusterB = finalClusters.get(j);//获取聚类2 List<DataPoint> dataPointsA = clusterA.getDataPoints(); List<DataPoint> dataPointsB = clusterB.getDataPoints(); //以下两个for循环来确定应聚那两个类 for (int m = 0; m < dataPointsA.size(); m++) { for (int n = 0; n < dataPointsB.size(); n++) {//划分类的标准:两类中最近的两篇文档作为类的距离 //计算两个聚类专利文献的距离 // System.out.println("outer:" + (m + 1) + " / " + dataPointsA.size()+ ",inner:"+ (n + 1) + " / " +dataPointsB.size()); double tempWeight = getDistance(dataPointsA.get(m).getDataPointName(), dataPointsB.get(n).getDataPointName()); if(0 <= tempWeight && tempWeight <= 1) {//如果在0-1之间,将相似度转换为距离 tempWeight = 1 - tempWeight; } if (tempWeight < min) { min = tempWeight; mergeIndexA = i;//保存最小距离的专利文献所在的簇 mergeIndexB = j;//保存最小距离的专利文献所在的簇 }//end_if }//end_for }//end_for }//end_if } // end for j }// end for i // 合并cluster[mergeIndexA]和cluster[mergeIndexB] if(min > threshold) { System.out.println("距离超过指定的阈值,聚类结束!"); break; } finalClusters = mergeCluster(finalClusters, mergeIndexA, mergeIndexB); }// end while return finalClusters; } /** * 获取两篇专利文献之间的相似度 * @param dataPointName * @param dataPointName2 * @return */ private double getDistance(String dataPointName1, String dataPointName2) { // TODO Auto-generated method stub String path1 = dataPointName1.substring(dataPointName1.lastIndexOf("\\")+1); String path2 = dataPointName2.substring(dataPointName2.lastIndexOf("\\")+1); // System.out.println(path1); String key = path1 + "#" + path2; if(map.containsKey(path1 + "#" + path2)) { double value = map.get(key); // System.out.println(key + "$" + value); return value; } return 0; } /** * 合并两个类 * @param clusters * @param mergeIndexA * @param mergeIndexB * @return */ private List<Cluster> mergeCluster(List<Cluster> clusters, int mergeIndexA, int mergeIndexB) { if (mergeIndexA != mergeIndexB) { // 将cluster[mergeIndexB]中的DataPoint加入到 cluster[mergeIndexA] Cluster clusterA = clusters.get(mergeIndexA); Cluster clusterB = clusters.get(mergeIndexB); System.out.println("合并 " + clusterA.getClusterName()+"["+clusterA.getDataPoints().size()+"] + " + clusterB.getClusterName() + "["+clusterB.getDataPoints().size()+"]"); List<DataPoint> dpA = clusterA.getDataPoints(); List<DataPoint> dpB = clusterB.getDataPoints(); for (DataPoint dp : dpB) { DataPoint tempDp = new DataPoint(); tempDp.setDataPointName(dp.getDataPointName()); tempDp.setCluster(clusterA); dpA.add(tempDp); } clusterA.setDataPoints(dpA); // List<Cluster> clusters中移除cluster[mergeIndexB] clusters.remove(mergeIndexB); } return clusters; } /** * 返回目录下符合后缀集合的样本集合 * @param dir * @param fileSufix * @return */ @SuppressWarnings("unused") private List<DataPoint> getDatePoinFromDir(String dir, final String [] fileSufix) { List<DataPoint> list = new ArrayList<DataPoint>(); if(dir == null || "".equals(dir)) { System.out.println("输入路径为空!"); return list; } File file = new File(dir); String[] files = file.list(new FilenameFilter(){ @Override public boolean accept(File dir, String name) { // TODO Auto-generated method stub for(String str : fileSufix) { if(name.endsWith(str)) { return true; } } return false; }}); for(String f : files) { DataPoint dp = new DataPoint(); dp.setDataPointName(dir + f); list.add(dp); } return list; } // 初始化类簇 /** * 每个节点属于一个类 * @param dataPoints * @return */ private List<Cluster> initialCluster(List<DataPoint> dataPoints) { List<Cluster> originalClusters = new ArrayList<Cluster>(); for (int i = 0; i < dataPoints.size(); i++) { DataPoint tempDataPoint = dataPoints.get(i); List<DataPoint> tempDataPoints = new ArrayList<DataPoint>(); tempDataPoints.add(tempDataPoint); Cluster tempCluster = new Cluster(); tempCluster.setClusterName("Cluster " + String.valueOf(i)); tempCluster.setDataPoints(tempDataPoints); tempDataPoint.setCluster(tempCluster); originalClusters.add(tempCluster); } return originalClusters; } } /** * 聚类存放结果 * @author DingJie */ class Cluster { private List<DataPoint> dataPoints = new ArrayList<DataPoint>(); // 类簇中的样本点 private String clusterName; public List<DataPoint> getDataPoints() { return dataPoints; } public void setDataPoints(List<DataPoint> dataPoints) { this.dataPoints = dataPoints; } public String getClusterName() { return clusterName; } public void setClusterName(String clusterName) { this.clusterName = clusterName; } } /** * 聚类节点类型 * @author 丁杰 */ class DataPoint { String dataPointName; // 样本点名 Cluster cluster; // 样本点所属类簇 public DataPoint() { } public Cluster getCluster() { return cluster; } public void setCluster(Cluster cluster) { this.cluster = cluster; } public String getDataPointName() { return dataPointName; } public void setDataPointName(String dataPointName) { this.dataPointName = dataPointName; } }
相关推荐
层次聚类(Hierarchical Clustering)是一种数据挖掘技术,用于将数据集中的对象根据相似性或距离进行分组,形成一个层次结构。这种算法可以分为两种类型:凝聚型(Agglomerative)和分裂型(Divisive)。在这个...
- 自定义实现如 `HierarchcalCluster.m` 文件,可能是实现了上述某一种或多种层次聚类方法。通过阅读和理解代码,我们可以定制聚类过程,比如调整距离度量或选择不同的聚类策略。 3. **提供的文件**: - `...
K-means 适用于寻找固定数量的簇,而层次聚类则提供了一种更灵活的方式来探索数据的不同层次结构。Java 语言提供了丰富的工具和库来支持这些算法的实现,例如上述代码示例中的 `BasicKMeans` 类展示了如何用 Java ...
层次聚类算法是一种数据挖掘中的无监督学习方法,主要用于对数据进行分类或分组,而无需预先知道数据的标签或类别。在C++中实现层次聚类,通常涉及到多个步骤和核心概念,如距离计算、聚类合并和树状结构...
在IT领域,尤其是在数据分析和机器学习中,层次聚类(Hierarchical Clustering)是一种常见的无监督学习方法,用于将数据集中的对象分组成具有相似性的集合,即“簇”。MATLAB作为一款强大的数学计算软件,提供了...
层次聚类分析是一种广泛应用的数据分析方法,主要用于将数据集中的观测或对象按照相似性或差异性进行分组,形成一个有层次的结构。在标题中提到的“层次聚类分析热图解读,matlab”,意味着我们将探讨如何使用MATLAB...
在数据分析和机器学习领域,层次聚类是一种广泛应用的无监督学习方法,用于将样本数据集组织成树状结构,即所谓的“ dendrogram”。这个压缩包包含了一个使用MATLAB实现的层次聚类程序,用于处理80个平面点的坐标...
层次聚类算法是一种典型的聚类方法,它通过构建或切割树状结构(称为 dendrogram)来形成簇。本项目实现了层次聚类算法的Java版本,下面将详细介绍其关键概念和技术。 首先,层次聚类分为两种类型:凝聚型...
层次聚类算法是一种无监督学习的聚类方法,主要用于对数据集进行分组,使得同一个组内的数据点之间相似性更高,而不同组内的数据点相似性较低。层次聚类算法的目标是构建一个分层的簇的嵌套结构,这种结构通常用一棵...
层次聚类分析是一种广泛应用的数据分析方法,主要用于将数据集中的对象根据它们的相似性或相异性进行分组,形成一个有层次的结构,也就是我们常说的“树状图”。这种方法可以直观地展示数据间的相似性关系,对于理解...
在IT领域,层次聚类是一种常见的无监督学习方法,用于将数据组织成具有层次结构的树形结构,也称为 dendrogram。在这个特定的项目中,我们看到的是一个使用Java实现的未经优化的层次聚类算法。这个算法目前可能存在...
在数据分析和机器学习领域,层次聚类是一种常用的数据聚类方法,它通过构建或切割一个树状结构(也称为 dendrogram)来对数据点进行分组。本项目提供了基于 MATLAB 软件实现的层次聚类算法,适用于进行数据的聚类...
本篇文章将详细探讨K-means、层次聚类和DBSCAN这三种主流的聚类算法,并在Java环境中进行实现。 1. K-means聚类: K-means是最为常见的聚类算法之一,它通过迭代过程寻找最优的聚类中心。算法的核心思想是将数据...
在数据分析和机器学习领域,层次聚类(Hierarchical Clustering)是一种常见的无监督学习方法,用于将数据点分组成一个有层次的结构,即形成一个树状的聚类模型,通常被称为“聚类树”或“ dendrogram”。...
综上所述,"ahp.rar" 包含的 "ahp.m" 脚本提供了一种在 MATLAB 中实现层次聚类算法的方式,适用于对数据进行分组和分析,尤其适合于研究和教学目的。用户可以根据自身需求,加载数据并运行此脚本来探索数据的内在...
【层次聚类法】层次聚类是一种聚类方法,它通过构建一个反映样本间相似度的层次结构(聚类树)来完成分类。层次聚类分为凝聚型(agglomerative)和分裂型(divisive),这里提到的是凝聚型,从单个样本开始,逐步...
在数据分析和机器学习领域,层次聚类是一种广泛应用的无监督学习方法,用于将对象或样本按照相似性或差异性组织成树状结构,即所谓的“聚类树”或“ dendrogram”。这种聚类方法分为两种主要类型:凝聚型...
层次聚类(Hierarchical Clustering)是一种数据挖掘技术,用于将数据组织成树状结构,即所谓的“层次结构”。在C++中实现层次聚类算法,可以为大数据分析和机器学习项目提供强大的工具。以下是对层次聚类算法及其...
凝聚的层次聚类(Agglomerative Hierarchical Clustering,AHC)是一种常见的无监督学习方法,用于将数据集中的对象组织成一个层次结构的聚类。在这个层次结构中,每个聚类都是由单个对象开始,然后逐步合并成更大的...