博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Union Find 和一道谷歌面试题
阅读量:2432 次
发布时间:2019-05-10

本文共 2860 字,大约阅读时间需要 9 分钟。

复习经历

继续按照主题刷题。最近一次的中心内容是 union-find 这种数据结构。选择它的原因是我在一次谷歌面试中被问到了这个题,而且当时没有回答出来,这就刺激了我一定要把 union-find 搞懂的愿望。我并不是完全不懂这个数据结构,在斯坦福在 Coursera 中的 Algorithm Specialization 里 Tim Roughgarden 教授讲过的,我也动手实现过。只是这段经历已经很遥远,而且在那之后再也没有用到过这种数据结构,所以没有机会复习。

把 union-find 放入正题对待以后,我首先做的就是回去把 Algorithm Specialization 里的讲课视频再看了一遍。这个课是要付费的,但是有免费的 preview, 用谷歌搜索视频“stanford union find” 就能够找到。课堂里是在讲述如何实现 Krugal’s Algorithm, 而 union-find 恰好是一种很契合的实现方式。Tim 老师简单介绍了一下这种数据结构,不过这些就够用了。不光够实现 Krugal’s Algorithm, 攻破谷歌的面试题也可以的。

在正式刷题之前,我又看了几篇教程文章,其中 通过一系列数组的图片把概念解释得很清楚。union find 也叫 disjoint set union,一个整体被分成了若干不相交的部分。总体上来说,这个数据结构就是在维护一个元素间有从属关系的数组,它有两个基本方法:

  1. find(x), 找到元素 x 的根节点,通常在 union find 维护的数组中,元素是作为索引的形式存在,索引对应的值是它父亲的索引;这个 find() 方法就是递归地寻找父亲,直到某个节点的父亲是自己,就返回这个节点
  2. union(x,y), 联合元素 x 和 元素 y,即把 x 和 y 所属的部分并起来,实现方法就是找到 x 和 y 各自的根节点,让其中一个根节点依附于另一个

Union-Find 的样例 Python 实现

class UnionFind:    def __init__(self, n):        self.arr = [i for i in range(n)]        self.n = n        self.size = n    def find(self, x):        if x >= self.n:            return -1        if self.arr[x] != x:            return self.find(self.arr[x])        else:            return x    def union(self, x, y):        if x >= self.n or y >= self.n:            return False        root_x = self.find(x)        root_y = self.find(y)        if root_x != root_y:            self.arr[root_x] = root_y            self.size -= 1        return Trueif __name__ == '__main__':    uf = UnionFind(5)    print(uf.find(3))    uf.union(3, 4)    print(uf.find(3))

通过代码读者可以发现 union find 这种数据结构有一个副产品 size. 这是随着成功的 union 操作而递减的,这个副产品在求一个图上的不连通组件的数量的时候非常好用。程序员只要按照 union find 的套路记录节点的变化,结果就维护在这个数据结构里。

谷歌面试题讲解

. 没错,我的电面就是一道 leetcode 原题。要求能够拿走的石头的最大数量。面试官后来都提示我了,就是求这个图上面不连通组件的数量。解决办法就是使用 union find, 将坐标作为 key, 互相映射。

def to_tuple(li):    return (li[0], li[1])class UnionFind:    def __init__(self):        self.size = 0        self.map = {
} def add(self, element): self.map[to_tuple(element)] = element self.size += 1 def find(self, element): father = self.map[to_tuple(element)] if father != element: return self.find(father) else: return father def union(self, e1, e2): root1 = self.find(e1) root2 = self.find(e2) if root1 != root2: self.map[to_tuple(root1)] = root2 self.size -= 1 class Solution: def removeStones(self, stones): """ :type stones: List[List[int]] :rtype: int """ uf = UnionFind() for stone in stones: uf.add(stone) length = len(stones) for i in range(length - 1): for j in range(i + 1, length): if stones[i][0] == stones[j][0] or stones[i][1] == stones[j][1]: uf.union(stones[i], stones[j]) return length - uf.size

最后最大的石头数量就是总数量 - 不连通组件的数量。

转载地址:http://efpmb.baihongyu.com/

你可能感兴趣的文章
Hadoop/MapReduce 好友推荐解决方案
查看>>
Spark 好友推荐解决方案
查看>>
Hadoop/MapReduce 使用马尔可夫模型的智能邮件营销
查看>>
Spark 使用马尔可夫模型的智能邮件营销
查看>>
Hadoop/MapReduce 及 Spark KMeans聚类算法实现
查看>>
Hadoop/MapReduce 及 Spark KNN分类算法实现
查看>>
Hadoop/MapReduce、Spark 朴素贝叶斯分类器分类符号数据
查看>>
Hadoop/MapReduce 查找、统计和列出大图中的所有三角形
查看>>
Flume 日志收集、使用Flume收集日志到HDFS
查看>>
消息队列系列之ActiveMQ(JMS、集群配置)
查看>>
消息队列系列之分布式消息队列Kafka
查看>>
图形数据库Neo4j入门
查看>>
Ubuntu下使用Python开发Spark程序
查看>>
《Spark机器学习》笔记——基于MovieLens数据集使用Spark进行电影数据分析
查看>>
《Spark机器学习》笔记——基于MovieLens数据集使用SparkMLib机器学习库构建电影推荐引擎
查看>>
《Spark机器学习》笔记——Spark分类模型(线性回归、朴素贝叶斯、决策树、支持向量机)
查看>>
《Spark机器学习》笔记——Spark高级文本处理技术(NLP、特征哈希、TF-IDF、朴素贝叶斯多分类、Word2Vec)
查看>>
《Spark机器学习》笔记——Spark回归模型(最小二乘回归、决策树回归,模型性能评估、目标变量变换、参数调优)
查看>>
《Spark机器学习》笔记——Spark构建聚类模型
查看>>
《Spark机器学习》笔记——Spark应用于数据降维
查看>>