博客
关于我
Hat’s Words(字典树)
阅读量:620 次
发布时间:2019-03-13

本文共 1085 字,大约阅读时间需要 3 分钟。

为了解决这个问题,我们需要找出所有可以被分解为恰好两个其他词组成的词,这些词被称为“帽子的词”。我们可以使用哈希表来快速判断一个子串是否存在,从而高效地解决这个问题。

方法思路

  • 读取输入并构建哈希表:首先读取所有词,并将它们存储在一个哈希表中,以便快速查找。
  • 检查每个词:对于每个词,尝试所有可能的分割点,将其分成前后两部分,检查这两部分是否都存在于哈希表中。
  • 收集结果:将满足条件的帽子的词收集起来,排序后输出。
  • 解决代码

    #include 
    #include
    #include
    #include
    using namespace std;int main() { unordered_map
    word_map; vector
    words; string word; while (cin >> word) { words.push_back(word); word_map[word] = true; } vector
    results; for (auto &w : words) { int len = w.length(); for (int i = 1; i < len; ++i) { string prefix = w.substr(0, i); string suffix = w.substr(i); if (word_map.find(prefix) != word_map.end() && word_map.find(suffix) != word_map.end()) { results.push_back(w); break; } } } sort(results.begin(), results.end()); for (auto &r : results) { cout << r << endl; } return 0;}

    代码解释

  • 读取输入:使用unordered_map存储所有词,vector存储所有读取的词。
  • 构建哈希表:将每个词插入到哈希表中,以便快速查找。
  • 检查分割点:对于每个词,遍历所有可能的分割点,检查分割后的前缀和后缀是否都存在于哈希表中。如果存在,则将该词加入结果列表。
  • 排序和输出:对结果列表进行排序,并按顺序输出每个帽子的词。
  • 这个方法通过使用哈希表进行快速查找,确保了在合理的时间内解决问题,适用于输入规模较大的情况。

    转载地址:http://aueaz.baihongyu.com/

    你可能感兴趣的文章
    Netwox网络工具使用详解
    查看>>
    Net与Flex入门
    查看>>
    net包之IPConn
    查看>>
    Net操作配置文件(Web.config|App.config)通用类
    查看>>
    Neutron系列 : Neutron OVS OpenFlow 流表 和 L2 Population(7)
    查看>>
    New Relic——手机应用app开发达人的福利立即就到啦!
    查看>>
    NFinal学习笔记 02—NFinalBuild
    查看>>
    NFS
    查看>>
    NFS Server及Client配置与挂载详解
    查看>>
    NFS共享文件系统搭建
    查看>>
    nfs复习
    查看>>
    NFS安装配置
    查看>>
    NFS的安装以及windows/linux挂载linux网络文件系统NFS
    查看>>
    NFS的常用挂载参数
    查看>>
    NFS网络文件系统
    查看>>
    nft文件传输_利用remoting实现文件传输-.NET教程,远程及网络应用
    查看>>
    NFV商用可行新华三vBRAS方案实践验证
    查看>>
    ng build --aot --prod生成文件报错
    查看>>
    ng 指令的自定义、使用
    查看>>
    nghttp3使用指南
    查看>>