Складні англійські


28

Складене слово - це слово, яке містить у ньому 2 або більше слів. Ми можемо зробити і краще, ніж це. Нам потрібно, щоб ви створили 1 (безглуздо) слово, яке містить кожне слово .

Однак ми хочемо, щоб це слово було якомога коротшим. Для цього ми можемо використовувати букви, що перекриваються.

Наприклад, якби ваш список слів ["cat", "atom", "a"], ви хочете повернутися "catom".

Введення-виведення

Вашій програмі потрібно буде взяти список слів як введення та повернути складене слово як вихід.

За словами Google, список слів, який ви будете використовувати, - це найпопулярніші 10000 слів англійською мовою (якщо цей список виявиться занадто простим, я можу змінити його на більш довгий). Для довідки, просто додавання кожного слова дає оцінку 65888.

Ваш бал - кількість букв у останньому слові, нижча - краща. Виключатель краватки йде до першого афіші.



1
@Loovjo ні, але якщо в кінцевому підсумку, жорстокі сили досить швидкі для запуску, я зміню список слів, щоб зробити його довшим.
Натан Меррілл

1
@PatrickRoberts Якщо це відповідає вашій відповіді, вам підкаже :) Посилання на пастину / суть було б чудово, але не потрібно.
Натан Меррілл

1
Хм, хто знає хорошого евристичного несиметричного продавця подорожей?
Дейв

2
Ніякого обгортання, і так детермінованим.
Натан Меррілл

Відповіді:


26

C ++, кінцева довжина слова: 38272

(оптимізована версія зайняла близько 20 хвилин)

#include <iostream>
#include <string>
#include <vector>

std::size_t calcOverlap(const std::string &a, const std::string &b, std::size_t limit, std::size_t minimal) {
    std::size_t la = a.size();
    for(std::size_t p = std::min(std::min(la, b.size()), limit + 1); -- p > minimal; ) {
        if(a.compare(la - p, p, b, 0, p) == 0) {
            return p;
        }
    }
    return 0;
}

int main() {
    std::vector<std::string> words;

    // Load all words from input
    while(true) {
        std::string word;
        std::getline(std::cin, word);
        if(word.empty()) {
            break;
        }
        words.push_back(word);
    }

    std::cerr
        << "Input word count: " << words.size() << std::endl;

    // Remove all fully subsumed words

    for(auto p = words.begin(); p != words.end(); ) {
        bool subsumed = false;
        for(auto i = words.begin(); i != words.end(); ++ i) {
            if(i == p) {
                continue;
            }
            if(i->find(*p) != std::string::npos) {
                subsumed = true;
                break;
            }
        }
        if(subsumed) {
            p = words.erase(p);
        } else {
            ++ p;
        }
    }

    std::cerr
        << "After subsuming checks: " << words.size()
        << std::endl;

    // Sort words longest-to-shortest (not necessary but doesn't hurt. Makes finding maxlen a tiny bit easier)
    std::sort(words.begin(), words.end(), [](const std::string &a, const std::string &b) {
        return a.size() > b.size();
    });

    std::size_t maxlen = words.front().size();

    // Repeatedly combine most-compatible words until there is only one left
    std::size_t bestPossible = maxlen - 1;
    while(words.size() > 1) {
        auto bestA = words.begin();
        auto bestB = -- words.end();
        std::size_t bestOverlap = 0;
        for(auto p = ++ words.begin(), e = words.end(); p != e; ++ p) {
            if(p->size() - 1 <= bestOverlap) {
                continue;
            }
            for(auto q = words.begin(); q != p; ++ q) {
                std::size_t overlap = calcOverlap(*p, *q, bestPossible, bestOverlap);
                if(overlap > bestOverlap) {
                    bestA = p;
                    bestB = q;
                    bestOverlap = overlap;
                }
                overlap = calcOverlap(*q, *p, bestPossible, bestOverlap);
                if(overlap > bestOverlap) {
                    bestA = q;
                    bestB = p;
                    bestOverlap = overlap;
                }
            }
            if(bestOverlap == bestPossible) {
                break;
            }
        }
        std::string newStr = std::move(*bestA);
        newStr.append(*bestB, bestOverlap, std::string::npos);

        if(bestA == -- words.end()) {
            words.pop_back();
            *bestB = std::move(words.back());
            words.pop_back();
        } else {
            *bestB = std::move(words.back());
            words.pop_back();
            *bestA = std::move(words.back());
            words.pop_back();
        }

        // Remove any words which are now in the result
        for(auto p = words.begin(); p != words.end(); ) {
            if(newStr.find(*p) != std::string::npos) {
                std::cerr << "Now subsumes: " << *p << std::endl;
                p = words.erase(p);
            } else {
                ++ p;
            }
        }

        std::cerr
            << "Words remaining: " << (words.size() + 1)
            << " Latest combination: (" << bestOverlap << ") " << newStr
            << std::endl;

        words.push_back(std::move(newStr));
        bestPossible = bestOverlap; // Merging existing words will never make longer merges possible
    }

    std::string result = words.front();

    std::cout
        << result
        << std::endl;
    std::cerr
        << "Word size: " << result.size()
        << std::endl;
    return 0;
}

Підтвердження базового однолінійного:

cat commonwords.txt | while read p; do grep "$p" merged.txt >/dev/null || echo "Not found: $p"; done

Він також створив кілька класних слів, що не виконуються. Ось кілька моїх улюблених:

  • вчора (синтетична ностальгія)
  • afghanistanbul (щось, що [сказав би політик, який вам не подобається] сказав)
  • разомnet (дружній Інтернет)
  • слон (великий привид)
  • грозонепроникний (як у "я не знаю, чому вони відчували потребу зробити його грозозахисним, але це нервує мене")

І:

  • codecribingo (можливо, майбутній виклик на цьому сайті?)

Кінцевий вихід на пастібін тут: http://pastebin.com/j3qYb65b


2
Спостереження, яке може бути корисним для інших, хто хоче отримати оптимальне рішення: проблему можна звести до неевклідової, асиметричної проблеми мандрівного продавця: визначте матрицю, де елемент i, j = max_word_length - overlap(word[i], word[j])(де overlapперевіряє перекриття праворуч від перший аргумент зліва від другого). Вирішивши це (удачі!), Потім розрізаючи отриманий цикл з найвищою вартістю (найменшим перекриттям), ви отримаєте впорядкований список слів, які можна об'єднати, щоб отримати оптимальне рішення.
Дейв

Вражає. Чи перевіряє це кожне слово в поточному списку один проти одного, кожен раз? Я розглядав це, але припускав, що мені потрібно просто перевірити випадкову вибірку, щоб запустити її в розумний час.
трихоплакс

1
@ValueInk так кешування буде великим підвищенням продуктивності. Рання версія мала це, але це додає великої складності, тому коли я адаптував певну логіку, мені довелося переписати лот. Натомість я вирішив кинути кешування. Також ні, це не зовсім оптимально. Це жадібний алгоритм, тому він не може судити про компроміси і не може вибирати між "однаково хорошими" варіантами. Дивіться мій коментар TSP щодо оптимального рішення (NP-Hard).
Дейв

1
@trichoplax так, це робиться. Час роботи - O (n ^ 3), що не так вже й погано для цього розміру вибірки. За допомогою кешування його можна зменшити до O (n ^ 2). Внутрішня перевірка також дуже паралельна, тому навіть для більш великих зразків вона може працювати в розумний час з обчисленням різьби / розподілу. Крім того, це дає велике збільшення швидкості завдяки знанню діапазону можливих ширин перекриття для кожного кроку, які скорочують час виконання в 10 разів.
Дейв

2
Це може бути не так важко, як загальний TSP, тому що ми маємо забавне обмеження, що перекриваються (a, b) ≥ min {overlap (a, d), overlap (c, d), overlap (c, b)} для всіх a , б, в, д.
Андерс Касеорг

21

С ++ 11, 38272 букви, перевірений оптимальним

Цей алгоритм гарантовано забезпечує нижню межу рішення. У цьому випадку вона здатна досягти нижньої межі та вивести оптимальне буквене рішення 38272. (Це відповідає рішенню, знайденому жадібним алгоритмом Дейва. Я був здивований і трохи розчарований, коли виявив, що це оптимально, але ось ми.)

Це працює, вирішуючи проблему мінімальних витрат в мережі, побудовану наступним чином.

  • По-перше, будь-які слова, що містяться в інших словах, є зайвими; відкиньте їх.
  • Для кожного слова w намалюйте два вузли w _0 і w _1, де w _0 - джерело ємністю 1, а w _1 - раковина ємністю 1.
  • Для кожного (суворого) префікса або суфікса а будь-якого слова намалюйте вузол a .
  • Для кожного суфікса а з ж , проведемо дугу від ш _0 до з ємністю 1 і вартістю 0.
  • Для кожного префікса а з ш , намалювати дугу від до ш _1 з ємністю 1 і довжини витрат ( ш ) - довжина ( в ).

Будь-який рядок довжиною n, який містить кожне слово, може бути перетворений у потік у цій мережі із вартістю не більше n . Тому мінімальний потік витрат у цій мережі є нижньою межею на довжину найкоротшого такого рядка.

Якщо нам пощастить - і в цьому випадку ми маємо -, після перенаправлення потоку, що надходить у w _1 назад поза w _0, ми знайдемо оптимальний потік, який має лише один підключений компонент і який проходить через вузол для порожнього рядок. Якщо так, то він буде містити ейлеровий ланцюг, що починається і закінчується там. Такий ейлеровий контур можна зачитати як рядок оптимальної довжини.

Якщо нам не пощастило, додайте додаткові дуги між порожньою рядком і найкоротшими рядками в інших підключених компонентах для того, щоб переконатися, що існує ейлерова схема. Рядок більше не обов'язково буде оптимальним у такому випадку.

Я використовую бібліотеку LEMON для її мінімальних витрат і алгоритмів схеми Ейлерова. (Це вперше я використовував цю бібліотеку, і я був вражений. Я обов'язково використаю її знову для майбутніх потреб графічного алгоритму.) LEMON поставляється з чотирма різними алгоритмами потоку мінімальних витрат; Ви можете спробувати їх тут з --net, --cost, --capі --cycle( по замовчуванню).

Програма працює за 0,5 секунди , виробляючи цей вихідний рядок .

#include <iostream>
#include <string>
#include <unordered_map>
#include <unordered_set>
#include <vector>
#include <lemon/core.h>
#include <lemon/connectivity.h>
#include <lemon/euler.h>
#include <lemon/maps.h>
#include <lemon/list_graph.h>
#include <lemon/network_simplex.h>
#include <lemon/cost_scaling.h>
#include <lemon/capacity_scaling.h>
#include <lemon/cycle_canceling.h>

using namespace std;

typedef lemon::ListDigraph G;

struct Word {
    G::Node suffix, prefix;
    G::Node tour_node;
};

struct Edge {
    unordered_map<string, Word>::iterator w;
    G::Arc arc;
};

struct Affix {
    vector<Edge> suffix, prefix;
    G::Node node;
    G::Node tour_node;
};

template<class MCF>
bool solve(const G &net, const G::ArcMap<int> &lowerMap, const G::ArcMap<int> &upperMap, const G::ArcMap<int> &costMap, const G::NodeMap<int> &supplyMap, int &totalCost, G::ArcMap<int> &flowMap)
{
    MCF mcf(net);
    if (mcf.lowerMap(lowerMap).upperMap(upperMap).costMap(costMap).supplyMap(supplyMap).run() != mcf.OPTIMAL)
        return false;
    totalCost = mcf.totalCost();
    mcf.flowMap(flowMap);
    return true;
}

int main(int argc, char **argv)
{
    clog << "Reading dictionary from stdin" << endl;
    unordered_map<string, Affix> affixes;
    unordered_map<string, Word> words;
    unordered_set<string> subwords;
    G net, tour;
    G::ArcMap<int> lowerMap(net), upperMap(net), costMap(net);
    G::NodeMap<int> supplyMap(net);
    string new_word;
    while (getline(cin, new_word)) {
        if (subwords.find(new_word) != subwords.end())
            continue;
        for (auto i = new_word.begin(); i != new_word.end(); ++i) {
            for (auto j = new_word.end(); j != i; --j) {
                string s(i, j);
                words.erase(s);
                subwords.insert(s);
            }
        }
        words.emplace(new_word, Word());
    }
    for (auto w = words.begin(); w != words.end(); ++w) {
        w->second.suffix = net.addNode();
        supplyMap.set(w->second.suffix, 1);
        w->second.prefix = net.addNode();
        supplyMap.set(w->second.prefix, -1);
        for (auto i = w->first.begin(); ; ++i) {
            affixes.emplace(string(w->first.begin(), i), Affix()).first->second.prefix.push_back(Edge {w});
            affixes.emplace(string(i, w->first.end()), Affix()).first->second.suffix.push_back(Edge {w});
            if (i == w->first.end())
                break;
        }
        w->second.tour_node = tour.addNode();
    }
    for (auto a = affixes.begin(); a != affixes.end();) {
        if (a->second.suffix.empty() || a->second.prefix.empty() ||
            (a->second.suffix.size() == 1 && a->second.prefix.size() == 1 &&
             a->second.suffix.begin()->w == a->second.prefix.begin()->w)) {
            affixes.erase(a++);
        } else {
            a->second.node = net.addNode();
            supplyMap.set(a->second.node, 0);
            for (auto &e : a->second.suffix) {
                e.arc = net.addArc(e.w->second.suffix, a->second.node);
                lowerMap.set(e.arc, 0);
                upperMap.set(e.arc, 1);
                costMap.set(e.arc, 0);
            }
            for (auto &e : a->second.prefix) {
                e.arc = net.addArc(a->second.node, e.w->second.prefix);
                lowerMap.set(e.arc, 0);
                upperMap.set(e.arc, 1);
                costMap.set(e.arc, e.w->first.length() - a->first.length());
            }
            a->second.tour_node = lemon::INVALID;
            ++a;
        }
    }

    clog << "Read " << words.size() << " words and found " << affixes.size() << " affixes; ";
    clog << "created network with " << countNodes(net) << " nodes and " << countArcs(net) << " arcs" << endl;

    int totalCost;
    G::ArcMap<int> flowMap(net);
    bool solved;
    if (argc > 1 && string(argv[1]) == "--net") {
        clog << "Using network simplex algorithm" << endl;
        solved = solve<lemon::NetworkSimplex<G>>(net, lowerMap, upperMap, costMap, supplyMap, totalCost, flowMap);
    } else if (argc > 1 && string(argv[1]) == "--cost") {
        clog << "Using cost scaling algorithm" << endl;
        solved = solve<lemon::CostScaling<G>>(net, lowerMap, upperMap, costMap, supplyMap, totalCost, flowMap);
    } else if (argc > 1 && string(argv[1]) == "--cap") {
        clog << "Using capacity scaling algorithm" << endl;
        solved = solve<lemon::CapacityScaling<G>>(net, lowerMap, upperMap, costMap, supplyMap, totalCost, flowMap);
    } else if ((argc > 1 && string(argv[1]) == "--cycle") || true) {
        clog << "Using cycle canceling algorithm" << endl;
        solved = solve<lemon::CycleCanceling<G>>(net, lowerMap, upperMap, costMap, supplyMap, totalCost, flowMap);
    }

    if (!solved) {
        clog << "error: no solution found" << endl;
        return 1;
    }
    clog << "Lower bound: " << totalCost << endl;

    G::ArcMap<string> arcLabel(tour);
    G::Node empty = tour.addNode();
    affixes.find("")->second.tour_node = empty;
    for (auto &a : affixes) {
        for (auto &e : a.second.suffix) {
            if (flowMap[e.arc]) {
                if (a.second.tour_node == lemon::INVALID)
                    a.second.tour_node = tour.addNode();
                arcLabel.set(tour.addArc(e.w->second.tour_node, a.second.tour_node), "");
            }
        }
        for (auto &e : a.second.prefix) {
            if (flowMap[e.arc]) {
                if (a.second.tour_node == lemon::INVALID)
                    a.second.tour_node = tour.addNode();
                arcLabel.set(tour.addArc(a.second.tour_node, e.w->second.tour_node), e.w->first.substr(a.first.length()));
            }
        }
    }

    clog << "Created tour graph with " << countNodes(tour) << " nodes and " << countArcs(tour) << " arcs" << endl;

    G::NodeMap<int> compMap(tour);
    int components = lemon::stronglyConnectedComponents(tour, compMap);
    if (components != 1) {
        vector<unordered_map<string, Affix>::iterator> breaks(components, affixes.end());
        for (auto a = affixes.begin(); a != affixes.end(); ++a) {
            if (a->second.tour_node == lemon::INVALID)
                continue;
            int c = compMap[a->second.tour_node];
            if (c == compMap[empty])
                continue;
            auto &b = breaks[compMap[a->second.tour_node]];
            if (b == affixes.end() || b->first.length() > a->first.length())
                b = a;
        }
        int offset = 0;
        for (auto &b : breaks) {
            if (b != affixes.end()) {
                arcLabel.set(tour.addArc(empty, b->second.tour_node), b->first);
                arcLabel.set(tour.addArc(b->second.tour_node, empty), "");
                offset += b->first.length();
            }
        }
        clog << "warning: Found " << components << " components; solution may be suboptimal by up to " << offset << " letters" << endl;
    }

    if (!lemon::eulerian(tour)) {
        clog << "error: failed to make tour graph Eulerian" << endl;
        return 1;
    }

    for (lemon::DiEulerIt<G> e(tour, empty); e != lemon::INVALID; ++e)
        cout << arcLabel[e];
    cout << endl;

    return 0;
}

Хоча я не можу стверджувати, що розумію, як працює мінімальний потік, якщо це дійсно оптимально, молодець!
Натан Меррілл

1
Вибачте, що розчарували: PI не думав про потокову мережу; це досить елегантно. Мені потрібен час, щоб зрозуміти, як ви пов'язуєте слова разом у вашій мережі, перш ніж я нарешті зрозумів: "Для кожного (суворого) префікса або суфікса будь-якого слова намалюйте вузол", що означало, що вузли "а" можна ділити між кілька слів.
Дейв

1
Також ваше рішення приблизно в 2000 разів швидше мого!
Дейв

1
Може, допомогти цьому хлопцеві ( cs.cmu.edu/~tom7/portmantout ) у спробі подібної речі?
Олівер Догерті-Лонг

2
@ OliverDaugherty-Довго завершено ! (Для справжнього часу.) Найвідомішими раніше відомими межами були 520732 ≤ оптимальна довжина ≤ 537136, і я вважаю, що я покращив обидва межі до 536186.
Anders Kaseorg

13

Java 8, ~ 5 хвилин, довжина 39 279

import java.io.BufferedReader;
import java.io.File;
import java.io.FileReader;
import java.util.ArrayList;
import java.util.HashSet;
import java.util.List;
import java.util.Optional;
import java.util.Set;
import java.util.stream.Collectors;

public class Words {

    public static void main(String[] args) throws Throwable {
        File file = new File("words.txt");
        List<String> wordsList = new ArrayList<>();
        BufferedReader reader = new BufferedReader(new FileReader(file));
        String line;
        while ((line = reader.readLine()) != null) {
            wordsList.add(line);
        }
        reader.close();

        Set<String> words = new HashSet<>();

        System.out.println("Finished I/O");

        for (int i = 0; i < wordsList.size(); i++) { //Step 1: remove any words that occur in other words
            boolean in = false;
            for (int j = 0; j < wordsList.size(); j++) {
                if (i != j && wordsList.get(j).contains(wordsList.get(i))) {
                    in = true;
                    break;
                }
            }
            if (!in) {
                words.add(wordsList.get(i));
            }
        }

        System.out.println("Removed direct containers");

        List<String> working = words.stream().sorted((c, b) -> Integer.compare(c.length(), b.length())).collect(Collectors.toList()); //Sort by length, shortest first
        StringBuilder result = new StringBuilder();
        result.append(working.get(0));
        while (!working.isEmpty()) {
            Optional<String> target = working.stream().sorted((c, b) -> Integer.compare(firstLastCommonality(result.toString(), b), firstLastCommonality(result.toString(), c))).findFirst(); //Find the string that has the greatest in common with the end of 'result'
            if(target.isPresent()) { //It really should be present, but just in case
                String s = target.get();
                working.remove(s);
                int commonality = firstLastCommonality(result.toString(), s);
                s = s.substring(commonality);
                result.append(s);
            }
        }

        System.out.println("Finished algorithm");

        String r = result.toString();
        System.out.println("The string: \n" + r);
        System.out.println("Length: \n" + r.length());
        System.out.println("Verified: \n" + !wordsList.stream().filter(s -> !r.contains(s)).findFirst().isPresent());
    }

    private static int firstLastCommonality(String a, String b) {
        int count = 0;
        int len = b.length();
        while (!a.endsWith(b) && !b.equals("")) {
            b = cutLastChar(b);
            count++;
        }
        return len - count;
    }

    private static String cutLastChar(String string) {
        if (string.length() - 1 < 0) {
            return string;
        } else {
            return string.substring(0, string.length() - 1);
        }
    }

}

Вхід:

  • файл, який називається 'words.txt' у робочому каталозі, у точно такому ж форматі, як і файл у головній публікації

Вихід:

Finished I/O
Removed direct containers
Finished algorithm
The string: 
[Moved to pastebin](http://pastebin.com/iygyR3zL)
Length: 
39279
Verified: 
true

2
FGITW, а на Java не менше. Ви, мій голос, мій голос.
Патрік Робертс

2
Приємно! Ви позбулися 26,609персонажів.
Р. Кап

@ R.Kap йди фігура! Я навіть не думав обчислювати це ... Але, мабуть, є розумніший алгоритм, це лише перше, що прийшло в голову ...
Socrat Phoenix,

7

Python 2, 39254 символів

На моїй машині працює 1-2 хвилини, працює, беручи найдовше слово, а потім завжди додаючи слово до рядка результатів, який має найбільше спільних рядків. (До цього всі слова, які є підрядками інших слів, видаляються, щоб уникнути зайвого додавання до рядка.)

Оновлення: Спробував подивитися в обох напрямках, але це не робить кращого. (можливо, це використання слів, які згодом можуть бути використані краще?)

Посилання на слово на пастібіні.

перші 100 символів:

telecommunicationsawayneillegallynnbabyenbcjrxltdxmlbsrcwvtxxxboxespnycdsriconsentencessexyrsslipodc

Код:

import re
import urllib

def suffix_dist(w1,w2):
    for i in range(min(map(len,[w1,w2])))[::-1]:
        if w1[-i:]==w2[:i]:
            return i
    return 0

url="https://raw.githubusercontent.com/first20hours/google-10000-english/master/google-10000-english.txt"
s=urllib.urlopen(url).read()
words=s.split()
words.sort(key=len,reverse=True)

## remove words that are substrings of other words anyway
for i in range(len(words))[::-1]:
    if any(words[i] in w for w in words[:i]):
        words.pop(i)

print len(words)

words.sort(key=len)
w1=words.pop(-1)
result=w1
while words:
    ## get the word with longest shared suffix/prefix
    w2=max(words,key=lambda x:suffix_dist(w1,x))
    print w2
    words.pop(words.index(w2))
    if w2 in result:
        break
    result+=w2[suffix_dist(w1,w2):]
    w1=w2


print result[:100]
print len(result)
print "Test:", all(w in result for w in s.split())

2
Welp, мене побили 25 символів ... +1 за це
Сократичний Фенікс

Хороша робота! У мене була схожа ідея, але ви вже мали відповідь. Моя версія починається з малого слова замість великого слова, а також іншої обрізки, яка спричиняє різке втрату фактору часу, забираючи до 3 разів кількість часу для запуску.
Значення чорнила

5

Рубі, 39222 символів

У своїй відповіді Python використовується аналогічний підхід до @KarlKastor, але початковий рядок є одним з найменших слів замість найбільшого. Інша оптимізація (я не знаю, наскільки це допомагає) полягає в тому, що між кожним додаванням вона обрізає будь-які слова, які, можливо, вже були включені в рядок через слова, що перетинаються.

Працює на моїй машині трохи більше 4 хвилин, не рахуючи веб-запиту, щоб отримати список слів, але не зовсім 4:20.

Слово про Пастебін.

require 'net/http'

puts "Obtaining word list..."
data = Net::HTTP.get(URI'https://raw.githubusercontent.com/first20hours/google-10000-english/master/google-10000-english.txt')
puts "Word list obtained!"

puts "Starting calculation..."
time = Time.now

words = data.split.sort_by(&:size)
words.reject!{|w| words.find{|x| w!=x && x.include?(w)}}

string = words.shift

def merge_dist(prefix, suffix)
    [prefix.size,suffix.size].min.downto(0).find{|i| prefix.end_with?(suffix[0,i])}
end

while words.length > 0
    suffix = words.max_by{|w| merge_dist string, w}
    string += suffix[merge_dist(string, suffix)..-1]
    words.reject!{|w| string.include? w}
end

delta = Time.now - time

puts "Calculation completed in #{delta} seconds!"
puts "Word is #{string.size} chars long."

open("word.txt", 'w') << string

puts "Word saved to word.txt"

3

PowerShell v2 +, 46152 символів

param([System.Collections.ArrayList]$n)$n=$n|sort length -des;while($n){$x=$n.Count;$o+=$n[0];0..$x|%{if($o.IndexOf($n[$_])-ge0){$n.RemoveAt($_)}}}$o

Приймає дані як список, кидає його в ArrayList (щоб ми могли ним маніпулювати). Ми sortце lengthв -desпорядку, що перебуває в порядку. Потім у whileнас ще є слова у нашому вхідному масиві, зробіть цикл. Кожну ітерацію встановіть, $xщоб помічник дорівнював тому, скільки у нас залишилось, торкніться наступного пункту у списку до нашого результату $o, а потім прогляньте все, що все ще є у нашому списку. Якщо значення .IndexOfне дорівнює -1(тобто, слово було знайдено десь $o), ми видаляємо це слово з нашого списку решти слів. Нарешті, наприкінці, виведіть $o.

У мене немає доступу до пастебіну чи подібного, тому ось початок і кінець слова для тимчасового - telecommunicationscharacterizationresponsibilitiessublimedirectory...fcmxvtwvfxwujmjsuhjjrxjdbkdxqc. Я думаю, що збрив близько 20 000 символів від входу, так що не так вже й погано, я думаю.

Я працюю над уточненнями.


0

PHP 46612 символів

Це лише початок. Я сподіваюся на покращення. Все, що я зробив поки що, - це видалити будь-яке слово, яке є підрядком іншого слова. Я працюю над 3 копіями масиву, але пам'ять, здається, не є проблемою.

<?php
set_time_limit(3000);

$words=file('https://raw.githubusercontent.com/first20hours/google-10000-english/master/google-10000-english.txt');
$words = array_map('trim', $words);

usort($words, function ($a, $b)
{
    if (strlen($a) == strlen($b) ){
        return 0;
    }
    return ( strlen($a) < strlen($b) )? -1 : 1;
});

$final_array=$words;
$comparison_array=$words;


  foreach($words as $key => $word){
    echo $word."<br>\n";
      foreach($comparison_array as $nestedKey => $nestedWord){
          if (strlen($nestedWord) <= strlen($word)) {
            unset($comparison_array[$nestedKey]);
            continue;
          }
          if( strpos($nestedWord,$word) !== FALSE ){
              unset($final_array[$key]);
              $restart=true;
              break;
          } 
      }    
  }


sort($final_array);
$compound='';
$compound = implode($final_array);
echo $compound;
echo "  <br><br>\n\n". strlen($compound);
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.